2018年11月20日火曜日

「ちょっと目、貸して?」視覚障害者と支援者をつなぐ5つのテクノロジー。



視覚障害者にとって、最も求められているサポートは、いうまでもなく「目の代わり」である。
本来ならめでみて得られる情報を、晴眼者が視覚以外(主に音声)に置き換えて伝えることで、視覚障害者の日常生活における不自由さを軽減し、さらには社会参加を促すことにつながる。
近年ではAI(人工知能)をアクセシビリティに活用する動きが活発で、MicrosoftやGoogleなどが、視覚障害者の「目」の代わりをしてくれるアプリをリリースしている。しかし、これらはまだまだ発展途上で、テキスト認識など一部の技術を除けば必ずしも視覚障害者のニーズを満たすところまでには至っていない。

やはり、現時点では頼りになるのは人のめによる視覚サポートなのである。
とは言え、そうそう都合よくみるのを手伝ってくれる人が近くにいるとも限らない訳で、そのような視覚障害者のために、インターネットを経由して世界中のボランティアが「目」の代わりをしてくれるサービスが提供されている。
今回は、そんな「人の力」で視覚障害者をサポートするアプリ・サービスから、注目すべき5つのプロジェクトを紹介しよう。


1. Be My Eyes(iOS,Androidアプリ)


Be My Eyesはスマートフォンのカメラを通して、晴眼ボランティアが視覚障害者の「目の代わりをする」アプリだ。
デンマークのスタートアップが2014年にリリースし、執筆時点で150カ国、180以上の言語に対応。170万人以上のボランティア、10万人あまりの視覚障害者が登録している。サポートを希望する晴眼者も、アプリから簡単に登録することが可能だ。
この種の支援アプリは登場しては消滅するという歴史を繰り返してきたが、Be My Eyesは現時点で最も成功しているクラウド型シエンアプリといえるだろう。

見えない、見えにくいことで何か困難に遭遇した視覚障害者は、ユーザー設定に基づいた言語地域のボランティアにヘルプを依頼する。うまくマッチングできたら、あとは音声通話もしくはビデオチャットでやり取りしながら問題解決を試みることができる。システム上、支援する側、される側のプライバシー情報(位置情報など)はやりとりされないため、ある程度匿名性を保った状態でやりとりできる。
またBe My Eyesには「専門的支援」と呼ばれる機能が用意されており、Be My Eyesと提携した携帯電話会社や医療機関といった専門的な団体から直接支援を受けることも可能。ただし日本では、まだほとんど実績がないようだ。


2. TapTapSee(iOSアプリ)


このアプリは、一見すると「Seeing AI」のようなAIによる画像認識を利用した物体認識アプリ……のように見える。
アプリを起動するとカメラのファインダーが現れ、静止画もしくはビデオを撮影すれば、しばらくして撮影されたものが何であるかを音声でフィードバックしてくれる。待ち時間も長くはない。せいぜい数十秒程度だ。
ところがこのアプリをしばらく使っていると、認識結果が非常に正確な場合と、かなりざっくりしている場合があることに気がつく。初めのうちは照明やカメラのピントの具合でAIの認識制度がバラつくのかと思っていたが、そうではなかった。
このアプリの物体認識は、実はほとんどの場合クラウドソーシングで手動処理されているのである。AIを用いた画像認識アプリでは苦手な「模様のある服」や「お皿の上に乗った料理」を的確に説明してくれるのは、ボランティアの力によるものだ。
たまに出てくる、的ハズレもしくはざっくりとした認識結果は、手動処理がタイムアウトした場合に簡易的に認識された結果のようだ。音声などでコミュニケーションする必要はなく、写真を撮影するだけでサポートが受けられるため、手軽に利用できるのが大きな特徴。


3. AIRA(iOS,Androidアプリ、商用サービス)


AIRAとは「Artificial Intelligence (AI), and Remote Assistance」の略で、現在北米地域および英国、オセアニアで提供されている商用サービスである。
利用者はスマートフォンアプリもしくは専用のスマートグラスを使い、見てもらいたいものや風景を映像としてAIRAへ送信。AIRAのエージェントはその映像をリアルタイムに見ながら、音声でさまざまなサポートをする。エージェントには位置情報も送信されるので、道案内もお手の物だ。AT&Tとパートナー契約を締結しており、外出先では4G通信でサービスを利用できる。
個人契約のほか、AIRAと契約している空港やスーパーマーケットなら、ゲストユーザーとして無料サービスを受けられるし、展示会やスポーツイベントなどでサービスを提供することもある。また専用スマートグラス「Horizon」はAIによる画像認識機能を搭載しており、エージェントに接続しなくても薬のラベルなどを判別したり、文字を読み上げることが可能。エージェントに接続しなければ通信費以外の料金は発生しない。

AIRAの最大の特徴は、トレーニングされたエージェントがサポートを担当するという点だろう。経済的な負担と引き換えに安定した品質のサービスが保証されるのは、ビジネスでの利用などで安心感がある。空港で一刻を争う場面を想像してみよう。的確に指示をしてくれるエージェントはきっと頼もしく感じるはずだ。
決して安価とは言えないこのサービスがビジネスとして成立するということは、それだけ視覚障害者の社会進出が進んでいる証拠と言えるのかもしれない。

日本でも、同様のサービス「リモートアシスト」が近日ローンチ予定。サービス内容など、気になるところである。


4. VizLens(開発中)


Human-Computer Interaction Institute (HCII)の学生らによって開発されている視覚障害者向け画像認識アプリ。
このアプリは、家電製品やリモコンのボタンをスマートフォンで認識させ、視覚障害者がそれらを単独で操作できるようにサポートする
まずユーザー(視覚障害者)は、操作したい製品の写真をスマートフォンのカメラで撮影する。その写真はVizLensをサポートするボランティアへ送信され、写真に写っているボタンやスイッチに手動でラベル付けを行ったのち、サーバへ送信される。
視覚障害者はVizLensアプリを起動したスマートフォンを操作したい機器にかざし、ボタンを指で示せば、付けられたラベルに従い、そのボタンの名前をリアルタイムに読み上げる、といった具合。

画像認識の制度が向上しても、そのボタンがどう機能するかを判別するには膨大なデータを学習させる必要がある。VizLensはこの学習プロセスをクラウドソーシングで解決しようとしている。将来的には家電メーカーと協力し、ラベル付けされたデータセットをプリセットすることも計画されているようだ。
と、かなり便利そうなVizLensではあるが、一般公開は未定……。ぜひ使って見たい。(関連ニュース


5. NIN_NIN(開発中)


テクノロジーの力で身体機能を共有する「Body Sharing」のコンセプトを基に開発されたロボット、というかガジェット。
視覚障害者がこのロボットを使えば、カメラを通した映像を晴眼者にシェアし、信号機や周囲の風景などを代わりに見てもらい、音声でフィードバックしてもらう、といったことが可能になる。忍者をモチーフにしたユニークなデザインが印象的で、このデバイスそのものをコミュニケーションのきっかけにしたいという思いもあるという。
このデバイスは視覚障害者に限らず、例えば外出が困難な障害者に変わってイベントなどに出かけてもらい、映像を送ってもらう)足のシェア)、など、相互に「Body Sharing」する提案もされている。

2020年の東京オリンピック・パラリンピック開催までの普及を目指している。


「人力」であることの意味


これらのアプリ・サービスは、視覚障害者にとってとても心強い存在だ。
ピンチに遭遇したとき、周りに誰もいなかったら…。想像するだけでも恐ろしいが、これらのアプリがあるというだけで、大きな安心感を覚える。一人だけど、ちょっと出かけてみようかな?と背中を押される視覚障害者もいるだろう。
アプリの先に、サポートしてくれる「人」がいる。これが人工知能であれば、ここまでの安心感を持てただろうか。

AIは日々進化を続けているが、障害者を支援するにはまだまだ人の力が不可欠。ICTを活用することで、もっと手軽・スムーズに障害者と支援者をマッチングし、サポートを通じたコミュニケーションの中で、この社会に足りないものは何かを共有できたなら、世界はもっと暮らしやすくなるはずだ。


※ブログは一人で書いてるため、誤字脱字はご容赦ください。
※記事が気に入っていただければシェア、リツイートいただけると喜びます。
※お仕事の依頼お待ちしています。ご連絡はDMからお気軽に。

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...