2019年12月17日火曜日

全盲的「インクルーシブ・ナビ@コレド室町」体験記(1)準備編


スマートフォンを用いて視覚障害者の移動を支援する技術は、世界各地でさまざまなプロジェクトが進められている。GPSなどの測位衛星を用いスマホ単体で屋外ナビを行うアプリはいくつか実用化されているが、屋内施設にBluetoothビーコンなどを設置するナビゲーションに関しては、日本ではこれまで実証実験がくりかえされており、その成果はサイトワールドのワークショップなどで報告されてきた。
そしていよいよ2019年11月、三井不動産と清水建設、日本IBMの共同プロジェクトによる屋内ナビゲーションサービス「インクルーシブ・ナビ」が、東京日本橋室町にあるショッピングセンター「コレド室町」で提供開始された。

関連リンク:

2017年2月に同所で実施された「NavCog)navigational cognitive assistant)」を利用した実証実験を踏まえ、「インクルーシブ・ナビ」として正式にリリースされた格好だ。
施設内に設置されたBLEビーコンと、IBMAI技術「Watson」を用い、スマートフォンにインストールされた専用アプリと連携させることで訪問者をナビゲートする。
視覚障害者はもちろん、車椅子やベビーカー、訪日外国人など多様なニーズにきめ細かく対応しているのが特徴だ。

もちろん全盲で支援技術に興味津々な筆者が、これに食いつかないわけがない。
さっそく、この屋内ナビゲーションを体験するべく、コレド室町へ向かったのである。
その顛末を、何回かに分けてご報告したい。


アプリのインストールとセットアップ。


もちろん、丸腰でコレド室町へ突入しても、何もできないことは知っている。
それなりに準備が必要だ。
まずは「インクルーシブ・ナビ」のスマートフォンアプリをインストールする。
ダウンロードはこちらから(App StoreGoogle Play)。

iPhoneの場合、対応するのはiOS10以降を搭載したiPhone。動作を保証しているのはiPhone 7とiPhone Xシリーズで、筆者はiPhone 7、iOS13.3で利用した。ヘルプによるとiPhone SEは対象外とのこと。

執筆時点でのアプリのバージョンは「2.0.8:。インストールされたアプリはホーム画面上に「IncNavi」という名前で表示される。
初回起動時に、位置情報サービス、Bluetooth、マイクなどの使用許可を尋ねてくるので、すべて有効にしておく。またiPhoneのBluetoothをオンにすることも忘れずに。さらにサイレントモードでは効果音などが鳴らないのでこれもオフにしておく。

アプリを起動するとまず表示されるのが「プロジェクト選択」画面。
まずここではユーザーのニーズに合わせて「モード」を選択する。なおVoiceoverが有効になっていると、モードは自動的に「視覚障害者」に固定されるためモードの選択は省略される。
モードは「視覚障害者」の他に、「車椅子利用者」「ベビーカー利用者」「一般利用者」が用意されており、一般では最短のルートを、ベビーカーや車椅子では段差やスロープなどを考慮したルートが提示されるとのことだ。
とりあえず本記事では「視覚障害者」モードを用いて話を進めていく。

さて、プロジェクト選択画面では、インクルーシブ・ナビを体験する施設を選ぶ。いくつか選択肢が現れるが、執筆時点で利用できるのは「日本橋室町地区」のみ。
まずははじめに一回だけ、ナビゲーションに必要なデータをダウンロードしておく必要がある。Wi-Fiに接続されていることを確認してからプロジェクト名(ここでは日本橋室町)をタップし、データのダウンロードを行っておこう。この処理には少々時間がかかる。
余談だが、Voiceoverがオンだとダウンロード中の音声がちょっと騒がしいので音量などに注意した方が良いかもしれない。

これで、コレド室町でインクルーシブ・ナビを体験できる準備は整った。


まずは練習してイメージトレーニング。


いきなり現地に乗り込むのも不安なので、ルート検索からナビゲーションまでの手順も一通りチェックしておこう。
現地に行かなくても検索機能や「プレビュー」を使ってナビゲーションの練習ができる。

プロジェクトを選択するとまず「ルート検索」「対話検索」の2つのボタンが表示される。筆者の環境ではたまにプロジェクトを選択しても検索ボタンが押せない場合があった。その場合は「設定」を開いて「プロジェクト選択に戻る」をタップし、もう一度プロジェクトを選び直すと推せるようになった。

「ルート検索」は施設のカテゴリや施設名などを選んで目的地を指定するモード。
「対話検索」は音声でアプリと対話しながらナビゲーションを利用するモードだ。
Siriをイメージすればわかりやすい。施設の名前が分からなくても、ジャンルや好みを話しかけて検索できるようだが、ちょっとコツが必要という印象。使いこなせれば音声だけでナビゲーションを完結できるので便利だろう。

とはいえ筆者はコツを掴みきれなかったので「ルート検索」を用いることにした。
「ルート検索」ボタンをタップすると、ルート設定画面が開く。
このモードでは出発地(基本的には現在地)と目的地を指定する。目的地のボタンをタップすれば、「施設の種類」「建物・フロア」「近くの施設」などで分類された目的地リストから行きたい場所を選べる。Voiceoverローターを「見出し」に合わせておけば、上下スワイプでサブカテゴリへジャンプできるのでわかりやすい。

ルート設定画面の「検索設定」を開くと、ルートに優先的に含める施設の設定ができる。
点字ブロックやエレベーター、エスカレーター、動く歩道、階段のそれぞれを使用するかどうかを、それぞれの設備のオン/オフで指定可能だ。

目的地を指定したら、画面の一番下にある「開始」をタップすればナビゲーションが開始されるが、エリア外だとこのボタンは無効になっているので、その上にある「プレビュー」をタップしよう。ルート全体の情報が読み上げられ、プレビューが開始される。
プレビューでは、ナビゲーションでどのような指示が行われるかを確認できる。実際に移動したり方向転換する必要はなく、自動的にルートが進められ、音声やバイブレーションの感覚を体験できる。「視覚障害者」モードではターン・バイ・ターンによる移動指示にくわえ、通過している途中の施設のアナウンスもしてくれることがわかる。
ナビ中は画面のどこかを一回タップすると、現在の状況を読み上げる。プレビューの進行スピードは「設定」から変更可能だ。目的地へ到達するか、「案内終了」をタップすればルート検索画面へ戻る。

さて、アプリの準備とイメージトレーニングができたので、いよいよコレド室町へインクルーシブ・ナビを体験しに出かけて見ることにした。
BLEビーコンを用いた屋内ナビゲーションは、海外ではいくつか社会実装例があり、一体どこまで実用的なものなのか、とても気になっていた。それがいよいよ国内でも体験できる。果たして全盲でも自由にショッピングが楽しめるようになるのだろうか?


続きは次回エントリーで!

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...