スマートフォンで写真を撮影しSNSやブログなどで共有する楽しさは視覚障害者の間でも一般的になっています。ただキッチリ構図が決まった写真を撮影するには、基本的に見える誰かのサポートが欠かせません。
視覚障害者が単独で撮影する場合、被写体がしっかりフレームに収まっているのか、ピントは合っているのか……などを確認するのは至難の技。なにせ画面が見えないわけですからね。
そこで目が見えないのであれば視覚情報のかわりに振動と音声で写真を確認すればいいじゃない、というコンセプトで開発されたのが「ペンタップトレース」なのです。
iPhone用無料アプリ「ペンタップトレース」は、撮影した写真をなぞることで、どのようなものがどこに写っているのか、振動や音声で教えてくれるカメラアプリです。作者はOCRアプリ「ペンタップリーダー」を開発したTakashi Hasuo氏(公式HP)。
では早速使ってみましょう。このアプリの読み上げは内蔵音声を使うためサイレントスイッチとVoiceoverはオフに設定しておきます。
- 2本指ダブルタップで写真を撮影します
- 2本指左右スワイプでフィルターを切り替えます
- 1本指で画面をなぞってみましょう。選択したフィルタに基づき識別されたオブジェクトの位置でiPhoneが振動します
- 「物体の位置」フィルタでは識別されたオブジェクトの名前を読み上げます
- 3本指下スワイプで写真をライブラリに保存します
- 3本指上スワイプで操作説明を読み上げます
基本的にジェスチャだけで操作する感じですね。カメラアプリとしてはカメラ切り替えなどもなく非常にシンプルな作りです。
試しに筆者の仕事机においてあるMacBookを撮影して「物体の位置]を選び、画面をなぞってみました。すると画面のやや左下の位置で「ノートパソコン」と読み上げられることを確認。これを参考に位置を調節しフレームの中心にMacBookが入るように撮影とタッチを繰り返していきます。コツが掴めるまでは少し難しいかな?
個人的に思ったポイントは「構図が決まるまでiPhoneをできるだけ動かさないようにする」こと。そうしないと位置調整が難しいというか効率が悪くなります。
ちなみに用意されているフィルタは以下の10種類。
黄色っぽい場所、青っぽい場所、赤っぽい場所、明るい場所、線がある場所、ピントが合ってる場所、手前に写っている場所、物体の位置、文字の場所、顔の場所
うまく被写体を認識させるためには、撮影された写真に対して適切なフィルタを選ぶ必要があります。被写体についてある程度の情報がある方がスムーズに活用できそうです。あと当然ながら被写体が全くフレームに入っていないと意味がないのでそこは練習が必要。構図が決まるようになるまでは見える人に補助してもらうと良いかもしれません。
なお写真を保存し「写真」アプリからiCloud Drive経由でMacに転送、解像度を調べたところ3,024 × 4,032ピクセルでした。これならプリントでも十分な品質が期待できるでしょう。なお写真は縦向き固定になるようです。
また写真撮影だけでなく、文字が収まっている写真をこのアプリで撮影し、OCRアプリからインポートする、といった用途も想定されているようです。OCRアプリで文字を読み上げさせようとしたのに端が切れてたり逆に何の文字も入ってなかった、なんて失敗はよくありますからね。ほかにも工夫次第でいろいろ便利に使えそうです。
ペンタップトレースに近いソリューションとしては「Seeing AI」の写真探索機能や、標準「カメラ」の音声ナビゲーション機能があります。
ただいずれも機能や信頼性の面で「画面を見ずに思い通りの写真を撮影する」といった体験には程遠いのも事実でしょう。あくまでも視覚を使わない撮影を補助するツールといった感じです。それでもこれがあるのとないのとでは大きな違いが生まれます。
いまはこれらのツールを活用しつつ、視覚を使わない写真撮影を極めるべく鍛錬するのも一興ではないかと思います。目指すはブラインドフォトグラファー。
参考:Introducing Tactile Sense Camera App | AppleVis
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。