2018年11月26日月曜日

アロマ・ペインティング 〜 視覚障害者に「絵を描く」楽しみを。


視覚障害者と絵画の関係を考えると、どうしても「鑑賞」の話がメインになる。
一部の美術館では音声ガイドを用いて絵画を「言葉」で説明したり、触図や立体的な印刷技術を用いて楽しむ視覚障害者向けのタッチツアーを開催したりしており、目が不自由でもアートに触れる機会は少しずつ増えつつある。
だがしかし、視覚障害者が「絵を描く」となると、一気にハードルが上がると感じるのは筆者だけだろうか。
もちろん、見えにくさによりそのハードルの高さはまちまちだろう。ロービジョンなら紙の色やインク、絵の具の色を工夫する必要があるかもしれない。では筆者を含めた全盲もしくはそれに近い視覚障害を持つ場合、自由に絵を描く手段はあるのだろうか。

晴眼者が絵を描けるのは、ペンや筆で描いた線や色、描いた絵の全体像を視覚で確認できるためと考えられる。視覚情報が遮断されている場合、これらの情報を視覚以外の方法で受け取らなければならない。ただ闇雲に絵を描くのではなく、全盲でも作品を把握し、コントロールできる主体性が必要である。
視覚障害者によるビジュアル表現手段についてはさまざまな研究や技術開発が行われているが、ここでは「香り」と「触覚」に注目したペインティングの試みを紹介しよう。

インド・ムンバイを拠点に活動しているアーティストSuresh Nair氏と彼のアーティスト仲間Samina Sachak氏によって考案されたのが、いろごとに天然エッセンスを用いた香りがつけられたアクリル絵の具「Aroma paint」。
たとえばイエローならシトラスレモン、ホワイトならシナモンの香りがつけられており、全10色セットとなっている。
視覚障害者はこの絵の具を使い、カンバスと絵筆の位置をアシストされながら、絵の具の香りを頼りに自由に絵を描く。
一度にたくさんの色を用いないこと、色を混ぜないこと、色同士の間隔を保つのがポイントのようだ。カンバス上の絵の具の香りはおよそ12日間で揮発するという。
これまで粘土や彫刻といった触覚を用いる表現しか体験したことのなかった子供達も、この香りの絵の具をすぐに使いこなし、抽象的で鮮やかな作品を生み出せたとのことだ。

また米国、ノースカロライナ州にある「paintfortheblind.com」では、視覚障害者が触覚と香りで手軽にペインティングを楽しめるソリューションを提供している。
同社が開発した「VISION BOARDS」は、天使やマーメイドといったモチーフの輪郭を指で触れて確認できるカンバス。キットにはこれに加え、香りで色を判別できる3種類の絵の具などが含まれる。こちらの絵の具は直接指でカンバスに塗ることが可能とのこと。
このキットを購入すれば、目が見えなくても、カンバスの輪郭を感じながら、絵の具を香りで判別しつつフィンガー・ペインティングを楽しめる。どちらかといえば自由に絵を描くというよりは、塗り絵に近い製品なのかもしれない。だが自分で色を選びカンバスに定着させるという「絵で表現する」楽しさの一端を感じられるだろう。

全盲の視覚障害者が絵を描くというと、何か超人的な能力を持つアーティストのエピソードばかりが語られがちだが、このような試みが広がれば、多くの視覚障害者にとって表現の幅が広がるだろう。
その作品は従来の「絵」というフォーマットに当てはまらないかもしれないが、線や色彩で感情を表現する手段は、視覚障害者の生活やコミュニケーションを確実に豊かにしてくれるはずだ。

もしかしたら今後、デジタルデバイスや人工知能、ブレイン・マシン・インターフェイスなどの技術が進歩し、視覚障害者のイマジネーションを的確にアウトプットできる未来が到来するかもしれない。きっとそこには、かつて誰も目にしたことのない全く新しい表現が出現するはずだ。

※ブログは一人で書いてるため、誤字脱字はご容赦ください。

2018年11月22日木曜日

Orcam Myeye 2.0、Bluetoothとボイスコマンドに対応。


先日開催されたサイトワールドでの展示も大盛況だった、イスラエルのスタートアップOrcam社の視覚補助デバイス「MyEye 2.0」がアップデートされ、音声コマンドによる操作やBluetoothイヤホンなどに対応した。一部の新機能はテキスト読み上げ専用版「Myreader 2.0」でも利用可能。

このアップデートで、ジェスチャやタッチバーで行う「自国読み上げ」や音声スピードの調節などをボイスコマンドで実行できるようになる。
またBluetoothデバイスの接続に対応。従来は読み上げ音声は本体スピーカーから再生されていたが、Bluetoothイヤホンを接続すれば、外出先でも周囲を機にすることなく使用できる。遮音性の高いイヤホンを使えば騒音の大きな場所でもMyeye 2.0の音声が効きやすくなるだろう。
さらに、対応言語としてフランス語、スペイン語が追加される。

8月にはバーコード読み取りなど大幅な機能強化が行われたばかりだが、精力的なアップデートはユーザーにとっても朗報だ。サイトワールドで体験した時、スピーカーからの音声が聞き取りにくいと感じていたため、Bluetooth対応でかなり魅力アップ。Bluetoothモジュールが内蔵されていたとは知らなんだ。音声コマンドも、新聞や本を両手で持って読む時にハンズフリーで操作できて便利かもしれない。

myeye 2.0の従来からの主な機能は以下の通り。

・テキストの認識と読み上げ
・顔検出と人物認識。100人まで登録可能。
・バーコード認識。学習モード(150アイテム)。
・色と各国の紙幣のリアルタイム認識。
・日付と自国の読み上げ。
・ジェスチャ、本体タッチセンサーによる操作。
・全ての機能はオフラインで動作。
・Wi-Fi接続によるアップデート。

このアップデートは準備が出来次第、デバイスをWi-Fi接続したタイミングで自動的に提供される。

もう一つ、myeye関連のトピックス。
東京都渋谷区は、myeye 2.0を日常生活用具給付対象に決定したとのこと。条件が整えば、購入費用の一部が補助される。少しでも負担が軽減されるのは、このデバイスが必要な視覚障害者にとって悪いニュースではないだろう。それでもおいそれとは手が出ないお値段ではあるのだが。

関連リンク:


※ブログは一人で書いてるため、誤字脱字はご容赦ください。


2018年11月21日水曜日

人力支援とプライバシーの関係をぼんやり考える。



前回のエントリーで、人力による視覚障害者支援の技術についてまとめてみた。
期待の人工知能はまだ発展途上で、困った時に全幅の信頼を持って運命を預けられるか、と言われると少々心もとない。いざというとき、やっぱり頼れるのは人間の力である。ということを書いた。たしか。

ただ書いているうちに、人力であるゆえの懸念も見えてくる。
視覚障害者だって、時にはクレジットカードの番号やセキュリティコード、保険証や預金通帳などを確認したい場合も出てくるだろう。
しかし、このような重要な個人情報は、おいそれと他人には見せられない。もっと考えると、他の書類を見てもらおうとしたときに、うっかり個人情報を漏らしてしまうことも考えられる。
なにせ視覚障害者は「それが見せてはいけないもの」であるかを確認すること自体、難しいからだ。
それを悪用するような者はほとんどいないと思うが、プライバシーを突然見せられて困惑しないわけがない。見せる方も見せられる方も不幸である。

この問題はリアルワールドでも十分考えられるが、匿名でつながるアプリでは、特に自分の情報を守る心構えが必要かもしれない。それは支援する側への配慮でもあるはずだ。
この懸念を払拭するには、やはりAIの活用は不可欠だろう。とはいえ、人のめを借りる前に画像認識アプリで簡単なチェックをするくらいしか防衛策は思いつかない訳だが。
そのアプリでさえ、本当にセキュリティ的に安全なの?と疑い始めるとまさに無間地獄。

AIによる認識技術の進化(しかもセキュアな)も重要だが、それ以前にプライバシーに関わる情報は、単独で判別できるように最優先でアクセシビリティを確保されるべきだろう。
どうしても他人のめを頼らざるを得ない視覚障害者だが、プライバシー情報をいかにして守るか、視覚障害者の自立を考える上でも真剣に検討されるべきテーマかもしれない。

2018年11月20日火曜日

「ちょっと目、貸して?」視覚障害者と支援者をつなぐ5つのテクノロジー。



視覚障害者にとって、最も求められているサポートは、いうまでもなく「目の代わり」である。
本来ならめでみて得られる情報を、晴眼者が視覚以外(主に音声)に置き換えて伝えることで、視覚障害者の日常生活における不自由さを軽減し、さらには社会参加を促すことにつながる。
近年ではAI(人工知能)をアクセシビリティに活用する動きが活発で、MicrosoftやGoogleなどが、視覚障害者の「目」の代わりをしてくれるアプリをリリースしている。しかし、これらはまだまだ発展途上で、テキスト認識など一部の技術を除けば必ずしも視覚障害者のニーズを満たすところまでには至っていない。

やはり、現時点では頼りになるのは人のめによる視覚サポートなのである。
とは言え、そうそう都合よくみるのを手伝ってくれる人が近くにいるとも限らない訳で、そのような視覚障害者のために、インターネットを経由して世界中のボランティアが「目」の代わりをしてくれるサービスが提供されている。
今回は、そんな「人の力」で視覚障害者をサポートするアプリ・サービスから、注目すべき5つのプロジェクトを紹介しよう。


1. Be My Eyes(iOS,Androidアプリ)


Be My Eyesはスマートフォンのカメラを通して、晴眼ボランティアが視覚障害者の「目の代わりをする」アプリだ。
デンマークのスタートアップが2014年にリリースし、執筆時点で150カ国、180以上の言語に対応。170万人以上のボランティア、10万人あまりの視覚障害者が登録している。サポートを希望する晴眼者も、アプリから簡単に登録することが可能だ。
この種の支援アプリは登場しては消滅するという歴史を繰り返してきたが、Be My Eyesは現時点で最も成功しているクラウド型シエンアプリといえるだろう。

見えない、見えにくいことで何か困難に遭遇した視覚障害者は、ユーザー設定に基づいた言語地域のボランティアにヘルプを依頼する。うまくマッチングできたら、あとは音声通話もしくはビデオチャットでやり取りしながら問題解決を試みることができる。システム上、支援する側、される側のプライバシー情報(位置情報など)はやりとりされないため、ある程度匿名性を保った状態でやりとりできる。
またBe My Eyesには「専門的支援」と呼ばれる機能が用意されており、Be My Eyesと提携した携帯電話会社や医療機関といった専門的な団体から直接支援を受けることも可能。ただし日本では、まだほとんど実績がないようだ。


2. TapTapSee(iOSアプリ)


このアプリは、一見すると「Seeing AI」のようなAIによる画像認識を利用した物体認識アプリ……のように見える。
アプリを起動するとカメラのファインダーが現れ、静止画もしくはビデオを撮影すれば、しばらくして撮影されたものが何であるかを音声でフィードバックしてくれる。待ち時間も長くはない。せいぜい数十秒程度だ。
ところがこのアプリをしばらく使っていると、認識結果が非常に正確な場合と、かなりざっくりしている場合があることに気がつく。初めのうちは照明やカメラのピントの具合でAIの認識制度がバラつくのかと思っていたが、そうではなかった。
このアプリの物体認識は、実はほとんどの場合クラウドソーシングで手動処理されているのである。AIを用いた画像認識アプリでは苦手な「模様のある服」や「お皿の上に乗った料理」を的確に説明してくれるのは、ボランティアの力によるものだ。
たまに出てくる、的ハズレもしくはざっくりとした認識結果は、手動処理がタイムアウトした場合に簡易的に認識された結果のようだ。音声などでコミュニケーションする必要はなく、写真を撮影するだけでサポートが受けられるため、手軽に利用できるのが大きな特徴。


3. AIRA(iOS,Androidアプリ、商用サービス)


AIRAとは「Artificial Intelligence (AI), and Remote Assistance」の略で、現在北米地域および英国、オセアニアで提供されている商用サービスである。
利用者はスマートフォンアプリもしくは専用のスマートグラスを使い、見てもらいたいものや風景を映像としてAIRAへ送信。AIRAのエージェントはその映像をリアルタイムに見ながら、音声でさまざまなサポートをする。エージェントには位置情報も送信されるので、道案内もお手の物だ。AT&Tとパートナー契約を締結しており、外出先では4G通信でサービスを利用できる。
個人契約のほか、AIRAと契約している空港やスーパーマーケットなら、ゲストユーザーとして無料サービスを受けられるし、展示会やスポーツイベントなどでサービスを提供することもある。また専用スマートグラス「Horizon」はAIによる画像認識機能を搭載しており、エージェントに接続しなくても薬のラベルなどを判別したり、文字を読み上げることが可能。エージェントに接続しなければ通信費以外の料金は発生しない。

AIRAの最大の特徴は、トレーニングされたエージェントがサポートを担当するという点だろう。経済的な負担と引き換えに安定した品質のサービスが保証されるのは、ビジネスでの利用などで安心感がある。空港で一刻を争う場面を想像してみよう。的確に指示をしてくれるエージェントはきっと頼もしく感じるはずだ。
決して安価とは言えないこのサービスがビジネスとして成立するということは、それだけ視覚障害者の社会進出が進んでいる証拠と言えるのかもしれない。

日本でも、同様のサービス「リモートアシスト」が近日ローンチ予定。サービス内容など、気になるところである。


4. VizLens(開発中)


Human-Computer Interaction Institute (HCII)の学生らによって開発されている視覚障害者向け画像認識アプリ。
このアプリは、家電製品やリモコンのボタンをスマートフォンで認識させ、視覚障害者がそれらを単独で操作できるようにサポートする
まずユーザー(視覚障害者)は、操作したい製品の写真をスマートフォンのカメラで撮影する。その写真はVizLensをサポートするボランティアへ送信され、写真に写っているボタンやスイッチに手動でラベル付けを行ったのち、サーバへ送信される。
視覚障害者はVizLensアプリを起動したスマートフォンを操作したい機器にかざし、ボタンを指で示せば、付けられたラベルに従い、そのボタンの名前をリアルタイムに読み上げる、といった具合。

画像認識の制度が向上しても、そのボタンがどう機能するかを判別するには膨大なデータを学習させる必要がある。VizLensはこの学習プロセスをクラウドソーシングで解決しようとしている。将来的には家電メーカーと協力し、ラベル付けされたデータセットをプリセットすることも計画されているようだ。
と、かなり便利そうなVizLensではあるが、一般公開は未定……。ぜひ使って見たい。(関連ニュース


5. NIN_NIN(開発中)


テクノロジーの力で身体機能を共有する「Body Sharing」のコンセプトを基に開発されたロボット、というかガジェット。
視覚障害者がこのロボットを使えば、カメラを通した映像を晴眼者にシェアし、信号機や周囲の風景などを代わりに見てもらい、音声でフィードバックしてもらう、といったことが可能になる。忍者をモチーフにしたユニークなデザインが印象的で、このデバイスそのものをコミュニケーションのきっかけにしたいという思いもあるという。
このデバイスは視覚障害者に限らず、例えば外出が困難な障害者に変わってイベントなどに出かけてもらい、映像を送ってもらう)足のシェア)、など、相互に「Body Sharing」する提案もされている。

2020年の東京オリンピック・パラリンピック開催までの普及を目指している。


「人力」であることの意味


これらのアプリ・サービスは、視覚障害者にとってとても心強い存在だ。
ピンチに遭遇したとき、周りに誰もいなかったら…。想像するだけでも恐ろしいが、これらのアプリがあるというだけで、大きな安心感を覚える。一人だけど、ちょっと出かけてみようかな?と背中を押される視覚障害者もいるだろう。
アプリの先に、サポートしてくれる「人」がいる。これが人工知能であれば、ここまでの安心感を持てただろうか。

AIは日々進化を続けているが、障害者を支援するにはまだまだ人の力が不可欠。ICTを活用することで、もっと手軽・スムーズに障害者と支援者をマッチングし、サポートを通じたコミュニケーションの中で、この社会に足りないものは何かを共有できたなら、世界はもっと暮らしやすくなるはずだ。


※ブログは一人で書いてるため、誤字脱字はご容赦ください。
※記事が気に入っていただければシェア、リツイートいただけると喜びます。
※お仕事の依頼お待ちしています。ご連絡はDMからお気軽に。

2018年11月17日土曜日

CEATEC Japanに初参加。その印象とか。



触覚スイッチのコンセプト展示@三菱電機。

CEATEC Japanは、毎年10月に千葉、幕張メッセで開催される大形展示会である。
当初は最新家電の展示会としてスタートしたが、ここ数年でCPS/IOT関聯のテクノロジーを扱う総合イベントとして姿を変えつつある。今年は10月16日~10月19日の4日間開催され、筆者は10月17日に参加した。

そもそもなぜCEATECに行ったのか。
2017年あたりから視覚障害当事者の視点から障害者支援テクノロジーについて情報収集するようになった。その過程でCEATEC Japan 2017の情報が目にとまり、興味を持ったのがきっかけ。すでに人工知能やウェアラブル、IOTなどの技術がトレンドとなりつつあり、これらは障害者にも恩恵を与えるはず。
これはみておいて損はない。
その思いと、一緒に行ってくれるフォロワーさん(晴眼者)がいたことも大きな原動力だった。一人で行くにはちょっとハードルが高いのである。

当日はそのフォロワーさんと、少なからずこの手の展示会に興味のありそうなガイドヘルパーさんをお願いして、3人で、いざ見学!

とは言いつつも、何せ初めてのCEATECである。
事前に見たいブースをチェックしてはいたが、規模の巨大さに圧倒され、詳しい内容はあまり覚えていない(笑)。ただ楽しかったのは間違いない。
かろうじてメモに保存しておいた写真。撮影はガイドさん。


無人コンビニ@ローソン。


全自動お片付けロボット@Preferred Networks。

人工知能やIOT、ロボットなど、まさになんでもありな最新テクノロジーのお祭り。
直接、アクセシビリティや障害者支援をテーマにした展示はほとんどなかったが、応用次第で我々の生活を変えてくれるかもしれない、なんて妄想を掻き立ててくれる。CEATEC Japan 2018でお披露目された技術から、来年のサイトワールドで注目を集める製品やサービスが出現するかもしれない。

正直にいうと、視覚障害を持ってから一般向けの、しかもこれほどの大きなイベントに行くのは初めてで、ちゃんと楽しめるだろうか? がっかりしないだろうか? と少なからず不安を感じていたのだが、全く杞憂だった。
大規模展示会の、あのわくわくする雰囲気、大企業の華やかなブース、中小ブースから感じるぎらぎらとした熱意。この雰囲気を感じられただけでも行った甲斐があったし、説明を聞いて展示物に触れ、説明員とコミュニケーションするのも楽しい。サイトワールドや福祉系イベントとはまた違った刺激を体験できた。
あと重要と感じたのは、同行者や周囲のリアクションから得られる情報。ステージイベントなどでは同行者の反応を感じ取り「なになに?」と質問しつつ内容を把握できた。そういう意味では、同じ興味を持つ晴眼者と一緒に見学すると楽しさも倍増するかもしれない。同行していただいたおふた方には本当に感謝!

もちろんサイトワールドのような専門イベントとは異なり、誘導ボランティアも点字による情報保障なども用意されていないため、事前にガイドを手配するとか、Webで展示情報をしっかりチェックしておくなどの準備は必要。
筆者の他にも白杖ユーザーが来場していたらしいが、障害者がもっと積極的に参加するようになれば、イベントのバリアフリー化も期待できるのかもしれない。とはいえ幕張メッセの施設は基本バリアフリーなので、準備しておけば大きく困ることはなかった。

ただ、公式Webのアクセシビリティはもう少し改善して欲しいところ。特にエントリー画面で、項目を選択する部分が読み上げられないのは大きな障壁と感じた。
また入場証を印刷して用意するのもわかりにくく、そのあたりの説明も必要と感じる。CEATEC 2018では最終日にWebアクセシビリティのセミナーも開催されていたし、来年には改善を望みたい。

初めてのCEATEC見学だったが、事前に訪問しようとしたブースの半分もみられなかった。それだけ巨大なイベントということで、この残念さを糧に、来年はぜひリベンジしたい。今度はちゃんと取材記録もしなければ……。

にしても幕張は遠いよ、ほんとに。体力つけないといけないな。

※ブログは一人で書いてるため、誤字脱字はご容赦ください。
※記事が気に入っていただければシェア、リツイートいただけると喜びます。
※お仕事の依頼お待ちしています。ご連絡はDMからお気軽に。

2018年11月15日木曜日

サイトワールド2018見学記 その(3)その他編


@ケージーエス株式会社のブース。

サイトワールド2018の過去記事はこちら。

サイトワールド2018見学記、3回目。
ここでは前回、前々回で触れられなかった、個人的に気になった展示のメモ。
結構、記憶が曖昧になってきたので簡単に…。


有限会社サイパックの「ボイスオブデイジー5」。
昨年のサイトワールドで予告されつつ、なかなか情報が出てこなかったスマートフォン用デイジー再生アプリの最新版。延期の理由は、サピエとの連携で仕様上の何かがあったためとのこと(詳しくは失念)。順調に進めば2018年中にもリリ^スされる。アップグレードキャンペーン価格での提供も検討中のようだ。
バージョン5では、サピエから直接デイジー書籍をダウンロードする待望の機能が実現するほか、書籍の整理機能が強化された本棚、スリープタイマーなど、充実の内容だ。リリースが待ち遠しい。。

篠原電機株式会社の「LED付音響装置」。
交差点に設置する新しいコンセプトの歩行者用信号、の補助装置。ロービジョンには手元のLEDで信号を確認しやすく、青信号と同期して音声と振動で渡るタイミングを知らせてくれる。騒音問題の対策にもなるし、盲ろう者でも青信号をかくにんしやすい。

錦城護謨株式会社の屋内むけ誘導マット「歩導くん」。
視覚障害者にとって点字ブロックは非常に役立つ設備だが、歩行が不自由な高齢者や車椅子ユーザーにとってはむしろバリアになりかねない。その問題を解決すべく開発されたのが、この製品。スロープ状になった柔らかい材質のマットで、テープで簡単に敷設できる。病院やイベントなどでの活用を想定しているようだ。

株式会社丸井グループ。
新しいエポスカードには、触覚でカードを判別できるエンボス加工が施されている。機会で読み取るカードには、シールなどで目印を付け加えるのは無理なので、このような特徴を備えてくれるとわかりやすい。

あと、個人的に触図に興味しんしんだったので、意識的に関聯展示を見学。
新潟大学 工学部 福祉人間工学科の「触地図自動作成システム」は、指定した住所の触地図を、オンデマンドで作成するシステム。道路や信号など、必要な情報を抜き出して実用的な触地図を短時間で出力できるのは画期的と感じた。
たとえば転居時に、自宅周辺や公共機関、福祉施設の触地図を得られれば大きな助けになるだろう。
他にもあすみらい株式会社での部屋探しサービスで、ベーズライタを用いて間取り図を触れて確認できるデモや、ブースは失念したが墨字と点字を同時に印刷できるプリンターなども興味深かった。
京都ライトハウスのブースで京都の触地図がもらえたという情報を後で知って、ちょっと残念。欲しかった。

最後に日本点字図書館のショップで、キーボードやスマホにはる凸点シール(薄型)を購入したり、サンプル展示してた盲人用オセロやルービックキューブに触ってお開き。お疲れ様でした。


サイトワールドの魅力は、レガシーなグッズから最新テクノロジーまで、視覚障害に関わるあらゆる情報やプロダクトに直接触れられるところにあると感じる。
個人的にはスマートスピーカーやIOTなど一般向けだが視覚障害者にも有用な製品やサービスもみたいところだが、会場の都合など諸事情あるのかもしれない。

あと点字関聯のグッズやデバイスを見学していると、ちゃんと点字読めるようになりたいと思うのである(筆者、現在挫折中)。
でも中途視覚障害者が点字を学ぶ機会はまだまだ少なく、そのあたりのソリューションも提案していただけまいか(他力本願)。

今年は2日に渡り見学してきたが、それでもイベントや体験に参加していると、気になる展示をじっくり見学するのは至難の技。まだ2回目だし、来年はもっと効率的に回りたいものである。

以上、サイトワールド2018見学記でした。


2018年11月14日水曜日

アリババ、視覚障害者を支援するスマホアクセサリを開発中

中国のeコマース大手であるアリババは、清華大学と共同で、視覚障害者が同社のサービスをより快適に利用するためのスマートフォン用アクセサリ「スマートスクリーン」を開発し、2019年のリリースに向けてテストを続けているとTechCrunchが伝えている。 このシリコン製のシートをスマートフォンのディスプレイに貼り付け、対応するアプリを利用すれば、スマートシート上に用意された3つの触覚ボタンから「戻る」や「確認」といった頻繁にアクセスする機能を実行できるようになるという。仕組みとしては極めてシンプルだ。 視覚障害者がスマホを操作するには、基本的に「Voiceover」や「Talkback」といった音声読み上げ機能と特別なジェスチャを使用するが、これに「触覚」インターフェースを追加することで、アプリの操作を効率化させよう、というコンセプトのようだ。 スマホの画面にシールなどを貼り、操作を効率化させるというのは視覚障害者の間では定番のハック。筆者もiPhoneの「日本語かな」キーボードの「な」と「小文字・濁点」キーに、薄型の凸点シールを貼り付けて利用している。 ただこれ、あまり貼りすぎると他のアプリを使うときにジャマになるのだが、Alibabaはあえて自社アプリ専用として作ってしまうあたり、大胆である。現時点ではショッピングや電子決済など3種類のアプリで使用でき、順次対応アプリを拡充する予定とのこと。 このスマートスクリーンはシンプルな構造ゆえ、製造原価が数セントと安価。アリババも、この製品で収益を上げるつもりはないようだ。 中国における視覚障害者は、約1,300万人とも言われている。むろん経済的な格差の問題などはあるが、その一部でもアリババのアプリを利用するようになれば、結果として大きなビジネスに繋がるかもしれない。 このプロジェクトが中国の視覚障害者にどのように受け取られるのか、とても興味深いニュースだ。

2018年11月12日月曜日

サイトワールド2018見学記 その(2)移動支援技術編


Myみちびき
「Myみちびき」@Kosugeブース。

サイトワールド2018の過去記事はこちら。


サイトワールド2018では、視覚障碍者の移動支援に関するセミナーや展示も目を引いたジャンルの一つだった。
重度の視覚障碍者にとって、移動は大きな障壁の一つである。歩行訓練を受けたり、場数を踏むことで脳内マップを構築すれば、単独でもある程度歩行することは可能だが、未知の場所を自由自在に移動するのは困難を極める。結局ガイドヘルパーなど人手に頼らねばならず、物理的・精神的にも不自由と言わざるを得ない。
そのような現状をテクノロジーで解決すべく様々な開発・研究が進められており、今回のサイトワールドではその成果の一端を体験することができた。


波及力に期待したい産総研の成果


2日目に開催されたセミナー「ICTを活用した視覚障碍者移動支援システムの社会実装」では、産業技術総合研究所が主導する視覚障碍者のナビゲーションに関する2つの実証実験について報告が行われた。

・RISTEXプロジェクト
神戸市・岡本商店街で実施された実証実験についての報告。障害物などを含む詳細なマップデータの作成や、動的地図提示システムなどについて解説があった。

・HULOP(NavCog開発プロジェクト
NavCogの日本橋・コレド室町での実証実験についての報告。BLEビーコンを用いたターンバイターンのナビゲーションを提供。参加者の反応も概ね良好だったという。

報告を聞く限り、技術的にはかなり実用に近づいているといった印象を持った。コストなど乗り越える問題は多々あるとは思うが、このような仕組みが都市インフラに組み込まれれば、視覚障害者が気軽に外出できる場所は一気に増えるのではないだろうか。
これらの技術が民間へ波及し、スマホを活用したナビゲーションが促進される可能性にも期待したい。この技術は障

害者だけでなく、高齢者や外国人観光客、方向オンチの人々にも応用できるはずだ。バリアフリーだけにとどまらず、情報提供やマーケティングに応用することで、一般にもコンセンサスを得られやすくなるのではないだろうか。

ほかにも、ハイエンドなスマートフォンに搭載されているカメラの深度センサー(顔認証などに用いられているもの?)を用いて地面の凹凸や段差を検知する技術や、特定のルートを映像として記録しておき、その映像と実際の風景を比較してナビゲーションする技術の話題も興味深かった。

今後の展望として、バリアフリー新法のガイドラインに視覚障碍者のナビゲーションに関する何らかの規定を追加するという動きもあるという。実現すれば、これまで音響のみだった視覚障害者の誘導に、ICTの波がやってくるきっかけになるかもしれない。公的機関である産総研だからこその活動に期待が高まるばかりである。
機会があれば実験など参加したいなあ。

なお発表後、実際にこれらのシステムを体験するワークショップが設けられたが時間の都合上、ここで退席した。残念無念。


QRコードを用いた「Shikai」プロジェクト


プログレス・テクノロジーズ株式会社のブース。この展示では、現在東京メトロ・辰巳駅で実証実験が行われている「Shikaiプロジェクト」の歩行ナビゲーションを実際に体験することができた。
これは駅構内の警告ブロックに設置されたQRコードをスマートフォンのカメラでスキャンし、指定した目的地までナビゲーションしてくれるというもの。サイトワールド会場の8F~9Fに点字ブロックのコースが敷設されており、説明を受けながら歩行体験でき流とのこと。なので早速お願いすることに。

出発点の警告ブロックまで移動したら、体験用のiPhoneが渡され、まず目的地を指定する。なおアプリの操作は終始Voiceoverオンの状態でおこなう。
目的地を指定するとすぐにナビゲーション開始。警告ブロックにiPhoneをかざすとQRコードが読み込まれ、次のQRコードのある警告ブロックの場所までの方向と距離がVoiceoverによる音声で指示される。その際、点字ブロックの左右どちらを辿るかといった情報も提供される。

あとはその音声の指示に従って歩くだけだ。
途中、わざと間違った方向に進んでみたが、ちゃんと次の警告ブロックでQRコードをスキャンすれば正しいルートが示された。
支持の表現などいくつか気になる点はあったが、おおむねスムーズなシステムであるというのが率直な感想である。

このシステムはあくまでも点字ブロックの整備が前提になっているため、応用範囲は限定的かなと思われるが、BLEビーコンなどの無線技術と比べ圧倒的に導入・管理コストが抑えられるのが利点と感じた。QRコードも歩行の邪魔にはならないし、単純に目的地へ到達するという目的を達成するなら、経済的にも合理性がある。
一方で、iPhoneでQRコードをスキャンしつつ、音声も聞きながら安全に歩くには、それなりの歩行スキルとVoiceover操作の慣れが必要かなとも思う。

なお筆者は11月末に辰巳駅での実験に参加することになったので、詳細は後日改めて報告したい。



「みちびき」時代を先取りするプロジェクト!?


株式会社KOSUGEのブース。このブースを訪問したのは11月1日。話題の準天頂衛星システム「みちびき」のサービスがスタートした記念すべき日である。
当然ながら関連製品やサービスはこれから開発がスタートされるであろうから、みちびき関連の展示はほぼ皆無である。
そのような中で、この「Myみちびき」は、コンセプト展示ではあるが「みちびき」を視覚障害者の誘導に利用するアイデアの一例として、興味を抱かずにはいられまい。

このシステムは、
・専用アプリをインストールしたiPhone
・みちびき受信機、及び受信アンテナ
・両手首に装着するBluetoothリストバンド
で構成される。さらにリモコンのモックアップも見せていただいた。

一般的なナビゲーションとは異なり、まずは晴眼者の協力を得て歩行ルートを記録する。通勤・通学や病院などよく利用スルルートを「みちびき」の位置情報を用いて記録するのである。
以降は、位置情報と記録したルートを比較しながら、iPhoneから音声や振動で道案内するという寸法だ。ルートを外れると、正しいルートをリストバンドの振動で通知してくれる(iPhoneのバイブレーションで代用も可能とのこと)。
画像認識を使って信号を判別する機能も検討中とのことだ。

ここまで読んでピンときた読者諸氏もいると思うが、同じような仕組みのアプリとして、アメディア社の「ナビレコ」がすでに存在している。Myみちびきは、それを「みちびき」の高精度測位で使えるようにしたもの、というイメージだろうか。(あくまでも想像)
記録したルートしか歩けないというのはやや不自由な印象も受けるが、測位精度が向上してもマップデータが整備されていなければ意味がないため、現実的な選択かもしれない。

目標は1メートル以内の精度とのことで、このシステムを実現させるには、最低でもみちびきの「L5」信号を受信可能な受信機の小型化と低価格化が必須(iPhoneなどで受信できるのはL1信号まで)。
現状では自動車や農業機械といった大規模システム向けの高価なものが実用化されているが、今後はドローン需要なども考えられるため、そう遠くない未来には実現するのではないかと、ほのかに期待している。

そしてこのようなコンセプトは、夢があって良い。
なにより説明していただいたKosugeの担当者の熱心さが印象的なブースであった。



視覚障害者が自由に歩ける未来は来るのか


視覚障碍者の歩行ナビゲーションの実現はまだこれから、という段階ではあるが、サイトワールドの展示だけでもさまざまなアプローチが試みられていることがわかる。もちろんこれ以外にも国内外で多数のプロジェクトが進行中だ。
共通しているのは、いずれもスマートフォンがベースとなっている点だろうか。

現状、視覚障害者の歩行ナビゲーションはGPSを使うものが主流でお世辞にも高精度とは言えないが、「みちびき」や画像認識AIなどの技術の登場・普及で、次の段階へ進みつつあるように思えるのは楽観的だろうか。。

もう少し時間は必要かもしれないが、ウェアラブルの次はナビゲーションがくる!と希望的観測を述べさせていただこう。
来年のサイトワールドも要チェックである。

2018年11月10日土曜日

サイトワールド2018見学記 その(1)ウェアラブル編


Orcam my eye 2.0 Photo
Orcam myeye 2.0@アメディア

去る2018年11月1日からの3日間、東京・錦糸町のすみだ産業会館サンライズホールで「サイトワールド2018」が開催された。
今年で13回を数えるこのイベントは、世界的にも珍しい、視覚障碍者関連の講演や展示を専門に扱う総合イベントである。
筆者は11月1日と2日に参加してきた。昨年に続き2回目。

メインである展示スペースでは、視覚障碍者向けの日用品の展示即売や点字ディスプレイ、プリンターなどの点字関連デバイス、拡大読書器やデイジー読書機器といった定番ものの展示が中心になっているが、最新のテクノロジーを採用した機器やサービスを実際に体験できるのも大きな魅力である。

というわけで、今年のサイトワールドで気になった展示について、何回かに分けて感想を書いてみたい。


OrCam MyEye 2.0


おそらく、今回のサイトワールドで最も注目を集めたデバイスは、この「OrCam MyEye 2.0(以下MyEye2)」だろう。
これはイスラエルのスタートアップOrcam社が開発した小型ウェアラブルデバイス。
手持ちのメガネのテンプル(つる)に装着して使う。MyEye2はカメラとスピーカーが搭載されており、カメラでとらえた文字や人物、紙幣、バーコードを認識して音声で読み上げる。100円ライター程度の小型軽量の本体のみで動作し、ネットワーク接続も不要。そして本体側面のタッチセンサーとジェスチャーで多くの操作が行えるのが大きな特徴だ。
たとえば読み上げたいテキスト部分を指で指し示すことでその部分を読み上げたり、手を広げるジェスチャーで読み上げをキャンセル、といった具合。
もちろんカメラに映ったものを自動で片っ端から読み上げさせることも可能だ。

筆者も実際に触れてみた。
テキストや顔認識の精度は正直スマホアプリなどの既存デバイスと大差ない感じだが、デバイスのコンパクトさやジェスチャ操作は技術の高さが感じられるし、何よりオフラインで利用できるのは大きなアドバンテージだろう。
バーコードリーダーがどれくらいのアイテム数をカバーしているか不明だが、それ次第では視覚障碍者のショッピングを一気に便利にしてくれるかもしれない。

イベントスペースでの製品発表会(株式会社システムギアビジョン)や、展示ブースでの体験(アメディア、ケージーエスなど)も盛況で、この驚くべきテクノロジーに対する期待の高さが伺える。ただテクノロジーと同じくらい、価格のインパクトも高かった。
おしなべてMyeye2を体験した来訪者は、その技術に感激し、価格を聞いてため息、といった反応であった。

MyEye2でできることは、すでにスマホなどでも実現されており、必ずしも革命的だったり画期的なデバイスではない。コンパクトさとオフライン利用、ジェスチャ操作にどれ砕いの価値を見いだせるか、60万円という価格をどう考えるかで評価は変わってくるように思える。ただ同じ機能でもスマホアプリとウェアラブルでは活用の幅は段違いなのは明白で、視覚障害者の生活を一変させる可能性を秘めているのは間違いない。
たとえば5年間使えば1ヶ月あたり約10,000円、そう考えると高くない?どうかなあ……。なお、テキストの読み上げに機能を絞ったモデル「OrCam MyReader 2」も用意されている。それでもかなりのいいお値段だが。


スマートグラスが大盛況


今年の展示でかなり目立っていたのが、目に装着するウェアラブルデバイス、いわゆる「スマートグラス」だ。昨年はほとんど見かけなかったジャンルだが、さまざまな見えにくさをサポートする個性的なアイウェアが展示されていた。
2017年のCEATEC、2018年のCESでは、一般向けのスマートグラスが多数出展されていたが、その技術を支援デバイスに応用した成果が一気に登場したという印象。
なお視覚障碍者向けスマートグラスの先駆者である「Oton Glass」はサイトワールドでの展示はなかった。ちょっと残念。
出展されていたスマートグラスを簡単に紹介しよう。

1. RETISSA Display

株式会社QDレーザ。網膜走査型レーザーアイウェア。入力した映像を網膜に直接投影するため、近視はもちろん、矯正が難しい角膜疾患でもくっきりとした映像が体験できるという。
逆に言えば、網膜や視細胞、視神経に障害があるユーザーには不向き。
筆者に代わって体験してもらった同行者はかなりの近眼だが、メガネを外して装着してもしっかりと映像を見ることができたという。映像はカメラではなくHDMIから入力するため用途は屋内での映像鑑賞を想定しているようだが、パソコンと接続して画面拡大機能と併用するといった使い方も考えられる。

見られる映像の視野はあまり広くないが、重度の角膜疾患でものがくっきり見られない患者には福音になるデバイスかもしれない。例えばコンタクトレンズでは矯正できない円錐角膜患者などには効果が期待できるのではないだろうか。
白内障でも状態によっては効果が期待できるということだが、レーザーの照射位置が固定されているため、目の状態に合わせてカスタマイズする、といったことはできないようだ。

2. eSight(イーサイト)マイグラス

FQ Japan株式会社。メガネに内蔵されたカメラで撮影した映像を調整して、
レンズの内側にあるディスプレイに表示し、視野狭窄や混濁などでものが見えにくくなったロービジョンの見え方を改善させるスマートグラス。
視界のズームや明るさ・コントラストの調節といった映像の加工、さらに残存視野に合わせて映像を移動させるなど、ユーザーの見え方に合わせて細かくカスタマイズできるのが特徴とのこと。

すべてのユーザーがこのデバイスの恩恵を受けられるわけではないが、適切にカスタマイズし、トレーニングを行うことで、効果が期待できる可能性はあるという。

3. HOYA MW10 HiKARi

HOYA株式会社 メディカル事業部。夜盲症の不便さを解消することを目的にした、暗所視支援スマートグラス。原理はeSightと同様だが、暗所を明るく見るために特別な好感度カメラを採用している。
ブースでは光を遮断した状態で効果を体験することができ、筆者と同行の体験者の感想では、かなりはっきりと物が見えると驚いていた。

こちらもまだ見える範囲(視野)は狭いようだが、夜盲に悩む人にとっては大きな進歩だろう。

4. Gyoro Glass(参考出品)

有限会社 フィット。魚眼レンズを用いたメガネ「Gyoromegane」を進化させたスマートグラスのプロトタイプを展示。魚眼レンズの特徴を生かし、狭くなった視野に、より多くの情報を伝送する、というコンセプトのようだ。

ロービジョン支援技術の定番となるか

一言でスマートグラスといっても、ターゲットユーザーや、視力補助のアプローチによって、かなり個性的な製品が展示されていた。すでに個人でも購入できるものもある。
現時点ではまだ補正した映像の視野が狭かったり、概観が不自然など改善の余地は感じられた。また、おいそれと手が出せない価格もネックではある。
これらの製品が市場に出回ることで、例えば安全性や耐久性といった課題も見えてくるかもしれない。なにせまだ生まれたてのジャンルゆえ、メーカーも試行錯誤の最中、といった雰囲気。

ロービジョンをサポートするデバイスとしては「遮光メガネ」や「拡大読書器」あたりが久しくメインだったが、今後はこれらのようなスマートグラスがその一端を担うようになるのかもしれない。この流れが一過性のブームに終わらず、継続的な開発に繋がることを願うばかり。そのためにも体験したユーザーがどんどんフィードバックしていくことが重要だろう。スマートグラスが視覚障害者に有用であることが証明されれば、日常生活用具の補助対象に繋がる可能性も十分に考えられる。


ウェアラブルは視覚障害者の「目」とな理うるか


サイトワールドというイベントは、どちらかといえば最新技術の発表というよりも、今すぐに手に入れられる技術を中心に扱っているというイメージがある。そこにこれだけのウェアラブルデバイスが一気に登場したということは、いよいよ技術革新の波が障害当事者のすぐそこにまで近づいているという証拠なのかもしれない。

来年は、どのようなウェアラブル端末が登場するのか?
今年体験した製品がどのような進化を見せるのか?
もうちょっとリーズナブルにならないかな?
今後も要注目のジャンルである。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...