2018年9月20日木曜日

「音のレイヤー」が目の代わりになる。〜スマートグラス「Eyesynth」



いま世界中で、視覚障害者の「目」の代わりになる、さまざまなウェアラブルデバイスが開発されている。
その中でも、少し変わり種な存在「Eyesynth」を紹介しよう。

「Eyesynth」は、スペインのスタートアップが開発したメガネ型のウェアラブルデバイス、いわゆる「スマートグラス」にカテゴライズされる製品だ。
メガネには2つのカメラが搭載されており、カメラで捉えた映像を、ケーブルで接続された本体ユニットに送り、解析された結果をメガネに搭載されたイヤホンへフィードバックする仕組みだ。
この仕組みだけを見ると、複眼カメラ搭載という特徴はあるものの、最近続々と登場している視覚障害者向けスマートグラスと大差ないようにも思える。
このデバイスでできることも、基本的に「障害物の探知」のみというシンプルなものだ。障害物を丹地するデバイスは、すでに超音波と振動で障害物を発見するハンディデバイス「パームソナー」や、スマート白杖などで実現している。

この「Eyesynth」の最大かつ随一の特徴が、探知した障害物を「3D音響」でフィードバックする点にある。
探知レートは秒間役60フレーム。目の前にある障害物だけでなく、移動する物体にもリアルタイムに対応するという。
たとえば看板に向かって歩くと、Eyesynthは看板の位置や距離を音の強弱や左右の音空間に変換して伝える。。ユーザーはその音をヒントに、看板の横をすり抜けて歩くことが可能だ。その間、向こうから歩行者が向かってくればそれも同時にフィードバックされ、衝突のリスクを軽減できるという寸法である。パームソナーなどと異なるのは、空間を3Dで認識し、それを音空間として翻訳する部分だろう。探知する範囲は、ジェスチャーで切り替えられるので外出先、屋内どちらにも対応できる。

視覚障害者が障害物を回避するためには、通常白杖を使うが、それでは白杖が届く範囲かつうまく杖先が当てられなければならない。例外として停車中の自動車やおしゃべりしている通行人など「音」のヒントが得られれば避けられるわけだが、Eyesynthはその「音」のヒントを、画像認識を用いて静的物体に適用させる。
音声は骨伝導デバイスで伝えられるため、通常の環境音も同時に聞こえる。つまり、普段聞いている音に、Eyesynthが生成したもう一つの「音のレイヤー」が加わることで、視覚障害者の知覚を拡張するイメージだ。

おそらく現在の技術をもってすれば、これらの障害物を「言葉」で伝えることもできるだろう。おそらくそちらの方が、直感的に使い始められるはずだ。
だがこれでは複数の障害物を重複して伝達するには向いていないし、読み上げられた言葉を聞いてそれを理解するには必ずタイムラグが発生するため、安全な歩行を担保するのは難しいと想像できる。
Eyesynthも、この音によるフィードバックを理解するまでには、ある程度のトレーニングが必要だとアナウンスしている。一方で、経験を積むことで音による確実な空間認識が可能になるとも述べている。
あえて訓練が必要なデバイスを製作したというのは、裏を返せばそれだけ効果的であるという自信の表れなのかもしれない。
なお、このデバイスはあくまでも目の前の障害物を認識するためのもので、白杖や盲導犬との併用を強く勧めている。

数ある視覚障害者向けデバイスの中でも、ひときわ個性的な存在である「Eyesynth」。
2018年秋~冬にはプレオーダー分の出荷が開始される予定だ。

関連リンク:

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...