2019年2月11日月曜日

触図とAIのマリアージュ。指先と耳で図の理解を助ける「TouchVision」。


言うまでもないが重度の視覚障害者が情報を得るためには、視覚以外の感覚、つまり触覚や聴覚を駆使しする必要がある。だが視覚から得られる圧倒的な情報をこれらの感覚で代替するのは非常に困難なのも事実。
中でも「図(例えば地図やグラフ)」や「数式」といったグラフィカルな情報を視覚を使わずに理解する手段は限られており、特にこのような教材を多用する教育現場においてはこの問題が履修の制限、ひいては進路選択の妨げにもなっているという。

もちろん図や数式を凹凸印刷した「触図」は古くから存在はしているものの、やはり目で見るほどスムーズには情報を得られない。この障壁を取り除くべく、さまざまな技術的アプローチから研究が進められている。
インド工科大学(IIT-D)出身のAnkita Gulati氏が開発した「TouchVision」もその一つだ。

TouchVisionは低コストで触図に音声フィードバックを加えるマルチモーダルなインターフェイスを提供する。AIによる画像認識技術を応用し、触図に含まれる様々な情報を音声で伝えてくれる技術だ。
システム構成は、スマートフォン用アプリと撮影台、指先に装着するリングという非常にシンプルなもの。撮影台にTouchVisionを起動したスマートフォンと食酢を固定したら、リングを装着した指で触図をなぞる。すると、スマホのカメラがリングのマーカーを認識し、指し示したテキストを読み上げる。
たとえば地図なら地形を触図の凹凸で確認しながら、同時に地名などの情報が音声でフィードバックされる、といった具合だ。
テキストだけでなく「色」を認識して読み上げることで、触覚で絵を観賞する際により豊かなイメージを伝えることもできる。子供向けの絵本で、登場人物の服や草花の色を読み上げるのも楽しいのではないか。


指先で「形」を確認しつつ、同時に耳から対応する情報が入ってくるため、形と文字を別々に読まなければならない従来の触図と比べ、効率的に内容を理解できる。また点字が読めない視覚障害者でも利用できるというメリットもある。物理的な制約が多い点字よりも多くの情報を含めることも可能だろう。
このシステムでは基本的に、墨字で文字情報を印刷した触図を用いるが、触図出なくても指の位置関係である程度内容が理解できそうな気もする。

視覚障害者がグラフィカルな情報を得る手段として「触図」はトラディショナルな手段だし、それは今後も変わりないだろう。だがそれに音声やAIといった最新のテクノロジーが融合することで、これまで伝えることが難しかった情報も共有できるようになるのかもしれない。

関連リンク:


0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...