2018年11月12日月曜日

サイトワールド2018見学記 その(2)移動支援技術編


Myみちびき
「Myみちびき」@Kosugeブース。

サイトワールド2018の過去記事はこちら。


サイトワールド2018では、視覚障碍者の移動支援に関するセミナーや展示も目を引いたジャンルの一つだった。
重度の視覚障碍者にとって、移動は大きな障壁の一つである。歩行訓練を受けたり、場数を踏むことで脳内マップを構築すれば、単独でもある程度歩行することは可能だが、未知の場所を自由自在に移動するのは困難を極める。結局ガイドヘルパーなど人手に頼らねばならず、物理的・精神的にも不自由と言わざるを得ない。
そのような現状をテクノロジーで解決すべく様々な開発・研究が進められており、今回のサイトワールドではその成果の一端を体験することができた。


波及力に期待したい産総研の成果


2日目に開催されたセミナー「ICTを活用した視覚障碍者移動支援システムの社会実装」では、産業技術総合研究所が主導する視覚障碍者のナビゲーションに関する2つの実証実験について報告が行われた。

・RISTEXプロジェクト
神戸市・岡本商店街で実施された実証実験についての報告。障害物などを含む詳細なマップデータの作成や、動的地図提示システムなどについて解説があった。

・HULOP(NavCog開発プロジェクト
NavCogの日本橋・コレド室町での実証実験についての報告。BLEビーコンを用いたターンバイターンのナビゲーションを提供。参加者の反応も概ね良好だったという。

報告を聞く限り、技術的にはかなり実用に近づいているといった印象を持った。コストなど乗り越える問題は多々あるとは思うが、このような仕組みが都市インフラに組み込まれれば、視覚障害者が気軽に外出できる場所は一気に増えるのではないだろうか。
これらの技術が民間へ波及し、スマホを活用したナビゲーションが促進される可能性にも期待したい。この技術は障

害者だけでなく、高齢者や外国人観光客、方向オンチの人々にも応用できるはずだ。バリアフリーだけにとどまらず、情報提供やマーケティングに応用することで、一般にもコンセンサスを得られやすくなるのではないだろうか。

ほかにも、ハイエンドなスマートフォンに搭載されているカメラの深度センサー(顔認証などに用いられているもの?)を用いて地面の凹凸や段差を検知する技術や、特定のルートを映像として記録しておき、その映像と実際の風景を比較してナビゲーションする技術の話題も興味深かった。

今後の展望として、バリアフリー新法のガイドラインに視覚障碍者のナビゲーションに関する何らかの規定を追加するという動きもあるという。実現すれば、これまで音響のみだった視覚障害者の誘導に、ICTの波がやってくるきっかけになるかもしれない。公的機関である産総研だからこその活動に期待が高まるばかりである。
機会があれば実験など参加したいなあ。

なお発表後、実際にこれらのシステムを体験するワークショップが設けられたが時間の都合上、ここで退席した。残念無念。


QRコードを用いた「Shikai」プロジェクト


プログレス・テクノロジーズ株式会社のブース。この展示では、現在東京メトロ・辰巳駅で実証実験が行われている「Shikaiプロジェクト」の歩行ナビゲーションを実際に体験することができた。
これは駅構内の警告ブロックに設置されたQRコードをスマートフォンのカメラでスキャンし、指定した目的地までナビゲーションしてくれるというもの。サイトワールド会場の8F~9Fに点字ブロックのコースが敷設されており、説明を受けながら歩行体験でき流とのこと。なので早速お願いすることに。

出発点の警告ブロックまで移動したら、体験用のiPhoneが渡され、まず目的地を指定する。なおアプリの操作は終始Voiceoverオンの状態でおこなう。
目的地を指定するとすぐにナビゲーション開始。警告ブロックにiPhoneをかざすとQRコードが読み込まれ、次のQRコードのある警告ブロックの場所までの方向と距離がVoiceoverによる音声で指示される。その際、点字ブロックの左右どちらを辿るかといった情報も提供される。

あとはその音声の指示に従って歩くだけだ。
途中、わざと間違った方向に進んでみたが、ちゃんと次の警告ブロックでQRコードをスキャンすれば正しいルートが示された。
支持の表現などいくつか気になる点はあったが、おおむねスムーズなシステムであるというのが率直な感想である。

このシステムはあくまでも点字ブロックの整備が前提になっているため、応用範囲は限定的かなと思われるが、BLEビーコンなどの無線技術と比べ圧倒的に導入・管理コストが抑えられるのが利点と感じた。QRコードも歩行の邪魔にはならないし、単純に目的地へ到達するという目的を達成するなら、経済的にも合理性がある。
一方で、iPhoneでQRコードをスキャンしつつ、音声も聞きながら安全に歩くには、それなりの歩行スキルとVoiceover操作の慣れが必要かなとも思う。

なお筆者は11月末に辰巳駅での実験に参加することになったので、詳細は後日改めて報告したい。



「みちびき」時代を先取りするプロジェクト!?


株式会社KOSUGEのブース。このブースを訪問したのは11月1日。話題の準天頂衛星システム「みちびき」のサービスがスタートした記念すべき日である。
当然ながら関連製品やサービスはこれから開発がスタートされるであろうから、みちびき関連の展示はほぼ皆無である。
そのような中で、この「Myみちびき」は、コンセプト展示ではあるが「みちびき」を視覚障害者の誘導に利用するアイデアの一例として、興味を抱かずにはいられまい。

このシステムは、
・専用アプリをインストールしたiPhone
・みちびき受信機、及び受信アンテナ
・両手首に装着するBluetoothリストバンド
で構成される。さらにリモコンのモックアップも見せていただいた。

一般的なナビゲーションとは異なり、まずは晴眼者の協力を得て歩行ルートを記録する。通勤・通学や病院などよく利用スルルートを「みちびき」の位置情報を用いて記録するのである。
以降は、位置情報と記録したルートを比較しながら、iPhoneから音声や振動で道案内するという寸法だ。ルートを外れると、正しいルートをリストバンドの振動で通知してくれる(iPhoneのバイブレーションで代用も可能とのこと)。
画像認識を使って信号を判別する機能も検討中とのことだ。

ここまで読んでピンときた読者諸氏もいると思うが、同じような仕組みのアプリとして、アメディア社の「ナビレコ」がすでに存在している。Myみちびきは、それを「みちびき」の高精度測位で使えるようにしたもの、というイメージだろうか。(あくまでも想像)
記録したルートしか歩けないというのはやや不自由な印象も受けるが、測位精度が向上してもマップデータが整備されていなければ意味がないため、現実的な選択かもしれない。

目標は1メートル以内の精度とのことで、このシステムを実現させるには、最低でもみちびきの「L5」信号を受信可能な受信機の小型化と低価格化が必須(iPhoneなどで受信できるのはL1信号まで)。
現状では自動車や農業機械といった大規模システム向けの高価なものが実用化されているが、今後はドローン需要なども考えられるため、そう遠くない未来には実現するのではないかと、ほのかに期待している。

そしてこのようなコンセプトは、夢があって良い。
なにより説明していただいたKosugeの担当者の熱心さが印象的なブースであった。



視覚障害者が自由に歩ける未来は来るのか


視覚障碍者の歩行ナビゲーションの実現はまだこれから、という段階ではあるが、サイトワールドの展示だけでもさまざまなアプローチが試みられていることがわかる。もちろんこれ以外にも国内外で多数のプロジェクトが進行中だ。
共通しているのは、いずれもスマートフォンがベースとなっている点だろうか。

現状、視覚障害者の歩行ナビゲーションはGPSを使うものが主流でお世辞にも高精度とは言えないが、「みちびき」や画像認識AIなどの技術の登場・普及で、次の段階へ進みつつあるように思えるのは楽観的だろうか。。

もう少し時間は必要かもしれないが、ウェアラブルの次はナビゲーションがくる!と希望的観測を述べさせていただこう。
来年のサイトワールドも要チェックである。

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...