2019年5月10日金曜日

[メモ] アプリとスマートスーツケースで視覚障害者に快適な空の旅を。


米国カーネギーメロン大学(CMU)のロボティクス研究所はピッツバーグ国際空港と提携し、空港内における視覚障害者のナビゲーション技術の実証実験を行なった。このプロジェクトを率いるのは同大学の客員教授でIBM Fellowの浅川智恵子氏。
この実験では「NavCog」と「Bbeep」という2つの技術を組み合わせ、視覚障害者が目的の施設をスムーズかつ安全に利用できるかを検証している。

NavCog」はCMUが開発したスマートフォンを用いた屋内歩行ナビゲーションシステム。日本でも成田空港や豊洲の商業施設などで実証実験が行われている。
このシステムは施設内に設置されたBLEビーコンからの電波をスマートフォンでキャッチし、専用のiPhoneアプリを用いて音声によるターン・バイ・ターンのナビゲーションを提供する。航空会社のカウンターやトイレ、商業施設はもちろん、道中のエレベーターやエスカレーター、動く歩道といった設備への誘導も行う。
ピッツバーグ国際空港では空港の要所に数百のBluetoothビーコンを設置し実験を行なった。

Bbeep」は、東京大学と早稲田大学によって開発された衝突回避システム。主役はカメラを搭載した車輪付きのスマートスーツケースだ。視覚障害者がこれをコロコロ転がすことで床面の状態を把握すると同時に、カメラが捉えた障害物をユーザーに音として伝える。
障害物との距離に応じて音は5~2.5秒間隔で変化し、危険な状態を検知するとユーザーに停止を促すという。またスピーカーから警告音を鳴らすことで周囲に存在をアピールし、他の利用客に事前回避を促す効果もある。

実際の実験では10人の視覚障害者が参加。iPhone 8を用いて空港の施設へ安全に移動できるかをテストした。結果、多少迷うことはあったものの、多くの被験者は3分程度でカウンターを見つけ、6分あまりでゲートを通過。そこから数分程度でトイレやレストランへ到達することができたという。「Bbeep」を用いることで障害物との衝突や他の利用客とのトラブルも発生しなかったとのこと。関係者にとってかなり手応えアリ!な結果だったようだ。確かにこのパフォーマンスなら、時間に余裕がなくても慌てずに空港を利用できそうだ。

鉄道など他の公共交通機関と比べ、空港は施設の構造も複雑で、行き交う情報量も膨大。またトランジットや遅延など長時間空港内に滞在を余儀なくされるケースも少なくなく、視覚障害者が単独で利用するには数多くのハードルが存在する。時間帯によっては空港の係委員や他の利用客の協力を得にくい場合も考えられる。
視覚障害者が一人で安心して空の旅を楽しむには、技術による情報支援が必要不可欠だろう。今回の屋内ナビゲーションとは別のアプローチとして、友人による遠隔サポート「AIRA」を導入する空港も増えており、こちらはすでに実際に利用することができる。

AIRAはともかく屋内ナビゲーションは晴眼者にも恩恵のある技術ではないだろうか。その辺りをアピールできれば、普及は難しくないと思うのだけど。どうでしょうかね。
もしかしたら近い未来「屋内ナビって障害者向けの技術だったんだって」なんてトリビアが出来てたりしてね。エレベーターやタイプライターがそうであったように。

関連リンク:


0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...