2019年2月16日土曜日

目指すはAI伴走者!? 視覚障害者のランニング・ナビゲーション技術。


筆者が視覚に障害を持ってからはや数年。そういえば、走らなくなった。
まあそれ以前は走っていたのか?と言われると「否」ではあるのだが、それでも待ち合わせに遅れそうだったり電車の時間ギリギリだったりした時はしっかり走っていたように記憶している。
だが白杖使いにジョブチェンジした今、とても走るなんて無理無理。歩くだけでいっぱいいっぱいである。
かくして視覚障害者は運動不足に陥りがちだ。

米国アイオワ大学、コンピュータ・サイエンスの助教授Kyle Rector氏らによるチームは、Microsoftの「AI for accessibility」の助成を受け、視覚障害者が独立して陸上トラックをランニングするためのモバイルアプリベースのナビゲーションシステムを開発している。
視覚障害者を誘導するシステムの開発は盛んに行われているが、多くは屋内での歩行を前提にしている。このプロジェクトは屋外でのランニングを支援するという意味で興味深い。

「Wizard of Oz」と名付けられたこのプロジェクトでは、全長400メートルのオーバル型陸上トラックを舞台に、視覚障害者が単独かつ安全にランニングするためのナビゲーションシステムの構築を目指している。
オーバルトラックはコースが定型であること、ランナーが一方向に走ること、路面が平坦であることなど比較的安全性が確保しやすいことで研究対象として選ばれたようだ。

システムはAIによる画像認識を行うスマートフォンアプリを用いてトラック上のランニングレーンをリアルタイムに判別し、ランナーを音声もしくは振動フィードバックでナビゲーションする。実験では「1.音声による指示」「2.両手に装着したスマートウォッチの振動で通知」「3.骨伝導ヘッドホンの振動による通知」の3種類のフィードバック手段が用意され、それぞれの有用性が検証されている。

ランナーがコースから外れると、音声で正しい方向を指示もしくは外れた側のデバイスが振動する。フィードバックを受け取ったランナーはそれに従い進路を調節する。
これは視覚障害者がプールで泳ぐ際、コースロープに触れてレーンを確認するテクニックから考案されたという。正しいコースを走っている間は音声も振動もされず、軌道修正が必要なときだけフィードバックされる仕組みだ。
屋内歩行でのナビゲーションに比べ、屋外ではフィードバックを見逃しやすいケースもあるだろう。運動に没頭しても安全、という信頼性が確保されるかが鍵だ。

肝心の画像認識がどのような仕組みになっているのかは不明だが、路面のラインを追跡するようなものであれば、陸上トラックだけでなくジョギングコースにラインを引き、それに従ってジョギングするような使い方ができるかもしれない(妄想)。
現在、視覚障害者がランニングを楽しむためには伴走者によるガイドを受けるのが一般的。Wizard of OZが目指すところは、AIとICTによるバーチャルな伴走者なのかもしれない。
そういえば海外では遠隔アシスタント「AIRA」を利用してマラソン大会へ参加した例もある。
このような技術が成熟すれば、視覚障害者の運動に対するハードルは一気に下がるかもしれない。それで筆者がいきなりジョギングを始めるようになるかはまた別問題ではあるが。

関連リンク:


0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...