nelo(画像引用元)
フランス、マルセイユに本拠地を置くスタートアップPerception社は、視覚障害者向けのビジュアルアシスタントデバイスである「Nelo」を発表しました。
人工知能を搭載したこのポータブルデバイスは、強力なコンピューターと高精細カメラ、そして骨伝導ヘッドフォンという構成。カメラが捉えた周囲の環境をAI技術を用いて解釈し、音声として伝達することで、視覚障害者の安全な移動を支援します。オフラインで動作し、搭載されている画像認識アルゴリズムは自転車や車、猫など75種類以上の物体を識別することができるとのことです。
neloは白杖や盲導犬を置き換えるものではなく、白杖では検知できない膝上にある障害物を避けたり、建物の出入り口を見つけるなど、あくまでもこれらの役割を補完する目的で開発されているとPerception社の代表であるOlivier Huet氏は語っています。
Neloの特徴と言えるのが、装着者の状態に応じ伝達する音声情報を自動的に切り替える仕組みを持っているという点でしょう。このデバイスには以下の3つのモードがあります。
- 装着者が動いている時は、壁や穴などの障害物を検知します。障害物が見つかるとビープ音が鳴り、近づくほど音の間隔が短くなります。
- 立ち止まった状態になると、検知した障害物の具体的な情報を提供し、それを回避するためのルートを提案します。
- さらに一定時間立ち止まっていると、周囲にある物体を識別し、その物体までの距離をユーザーに通知します。
つまり危険回避を最優先にしなければならない移動中は目の前の障害物をシンプルなビープ音で伝達し、安全に立ち止まっている時に物体の名前や距離をじっくりアナウンスするという仕組みです。確かに歩行中は足元や前方の障害物に意識を集中させることが多いですから、余計な情報(人の声など)が入ってくるとちょっと気が散ってしまうかもしれません。そういう意味では理にかなった設計と言えるでしょう。
視覚障害者の目の代わりとなるビジュアルアシスタントの設計では、認識した情報をいかにしてユーザーに素早く解釈可能な音声として伝達するかが、ユーザビリティを大きく左右します。カメラやAIの性能が向上したことで識別できる物体の情報量は膨大なものになっていますが、それをただ闇雲にアウトプットするだけではユーザーは混乱し、場合によっては安全性を損なう可能性も考えられます。人間が耳から得られる情報量には限界がありますから、視覚的な情報を音声に変換する上ではそれなりの取捨選択が必要となってくるでしょう。
いかにして安全をかくほし、かつその時もっともユーザーが必要としている情報を絞り込んで伝達するのか。視覚障害者向けのデバイスを設計する上で、このあたりのアルゴリズムが今後いっそう重要視されてくるのかもしれません。
neloはフランスにおいて近日2,000ユーロ前後の価格で発売予定。GPSナビゲーションやテキスト認識、顔認識などの追加機能が利用できるサブスクリプションも用意されるとのことです。
参考:Nelo, l'assistant visuel doté d'intelligence artificielle dédié aux non-voyants
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。