2019年12月31日火曜日

全盲的「インクルーシブ・ナビ@コレド室町」体験記(追記メモ)


これまでの記事はこちら。(1)準備編(2)突撃編(3)完結編
本エントリーは、本編では書ききれなかった「インクルーシブ・ナビ」にまつわるメモ。
感想から要望、担当の方から伺った豆情報まで、いろいろあります(順不同)。

1. ナビ中のネット接続について。


インクルーシブ・ナビでは、ルートを検索する時にインターネット接続が必要となる。
これは常に最新の施設情報を利用できるようにするためで、音声検索、ジャンル検索いずれの場合もネット接続は必須とのこと。
なおナビ中は、ビーコンとのBluetooth通信がメインなので、ネット接続は使用しないとのことだった。ナビゲーションの計算も、iPhone端末内部で実行されるようだ。
ネット接続を最小限にすることで、バッテリー消費を抑えられるメリットもある。

2. 現在地」を知る方法はある?


インクルーシブ・ナビでは基本的に「現在地から○○まで」という形でルートを指定する。だが、そもそも今いる場所はどこなのか、私は知りたい。
伺ったところ、音声検索を使って「今どこにいる?」と尋ねることで、大まかな(ビル名とフロアくらい)を教えてくれるとのことだ。
ただ現在、最新のiOSを導入したiPhoneでは音声による検索がうまく動作しないとのことで、実際に試すことはできなかった(現在対応中とのこと)。

3. エスカレーターにはご用心。


ナビの設定によっては、視覚障害者モードでもエスカレーターに誘導されることがある。
コレド施設内は基本的に点字ブロックは敷設されていないが、エスカレーターの直前にはちゃんと設置されているので、しっかり確認して正しく乗り込もう。
なぜこのようなことを書いたのかといえば、私が慌てて反対のベルトを掴んでしまい、周囲を慌てさせたからである。気をつけましょう。

4. エレベーターにまつわるあれこれ。


ナビ中にエレベーターへ誘導されることも多い。
エレベーター前に到着すると、ボタンの場所を教えてくれるのは親切だ。
ただ、設置されているエレベーターによって、視覚障害者向けのバリアフリー設備が結構バラバラだった。ある場所のエレベーターは、到着した時の音が鳴らないものもあったし、行先階のボタンも、数字のエンボスがある場合とない場合があった。なお点字は漏れなく設置されていた。筆者のように点字が苦手な場合、頼める人がいないと難儀するかもしれない。最終手段として、全部のボタンを押すしかないのかも?迷惑かな。

面白かったのは、エレベーターで上下に移動した場合の位置推定方法。
なんと、ビーコンではなくiPhoneの気圧センサーを使っているんだって!

5. ナビで三越前駅へは行き来できる?


コレド室町に最も近い公共交通機関は、東京メトロ銀座線の三越前駅。地下道からそのままコレドの地下一階に直結している。
視覚障害者が単独でコレドを訪問する場合、この部分のアクセスが気になるところだ。

残念ながら駅の周辺は公道であるため、現時点ではインクルーシブ・ナビのエリアから外れているとのこと。地下鉄駅からコレドへ移動するには、駅員などの誘導が必要かもしれない。
一方コレドから駅へ移動するには地下鉄駅を目的地にナビできる。有人改札手前数メートルの場所でナビが終了するが、この場合は音響サインを頼りに改札口へたどり着くことは可能だろう。

6. 多言語にも対応しているのだ。


インクルーシブ・ナビは、端末の言語設定に応じて多言語によるナビゲーションにも対応している。対応言語は日本語、簡体字中国語、英語、韓国語。
訪日外国人観光客には強力な情報源となるはずだ。

7. トイレ内部の情報が知りたいなあ。


インクルーシブ・ナビを利用すれば、各フロアに設置されている多目的トイレにも誘導してくれる。
ただ残念なのが、トイレ内部の様子が、視覚障害者には把握しにくいという点。多目的トイレは広いため、便座や手洗いの位置、水を流すボタンなどを探すのに苦労してしまう。
バリアフリーが整った施設では触図や音声による案内が用意されている場合があるが、大まかな説明でもいいので、スマホから音声案内が聞ければ利用しやすいのではないだろうか。テキストを読み上げるだけでもいいと思うのだけど。

8. 「視覚障害者」以外のモードの使い勝手は?


さて一連の記事では、 全盲の筆者が「視覚障害者」モードでナビを体験してきたが、他のモードの使い勝手はどうなのだろうか。同行いただいたお友達に「車椅子利用者」モードで体験していただいた。

このモードでは画面上に施設内のマップが表示され、現在地とルートが示される。このマップ表示を確認しつつ、ターン・バイ・ターンによるナビゲーション指示に従って目的地を目指す。誘導の内容は視覚障害者モードと基本同じだが、マップと実際の風景を確認しながら歩ける、というのが最大の違いだろう。

施設内の通路が目視できればルートを正確に歩くことができるし、誤差が発生して位置情報がずれていても、次に曲がる場所が推測できるので迷うことなく目的地にたどり着くことができた。
ある程度視覚で進むべきルートを確認できれば、2メートル程度の誤差はあまり気にならないようだ。

車椅子やベビーカーのモードでは、エレベーターやスロープを優先するルートを提示してくれるため、このナビを用いれば知らない施設でも、スタッフの手を借りることなく安全かつ効率的に移動することができるだろう。
全盲(というか筆者)にとってかなり苦戦させられたインクルーシブ・ナビだが、それ以外の人々には、かなり実用的なレベルではないだろうか。視覚障害者でも、進むべき空間を目視できるのであれば、このナビは有効に活用できるかもしれない。

ロービジョンの方の感想もぜひ聞いてみたいところだ。

全盲的「インクルーシブ・ナビ@コレド室町」体験記(3)完結編


(前回までのあらすじ) 商業施設「コレド室町」で提供が開始された、スマートフォンを用いる屋内ナビゲーションシステム「インクルーシブ・ナビ」。
その名の通り、障害の有無にかかわらずあらゆる人々に対して最適な情報提供とナビゲーション(道案内)を行うことを目指しているシステムだ。
そしてこの中には、視覚障害者に特化した機能も含まれており、全盲であり支援技術大好きな筆者は早速この新しい技術を体験してみることにしたのだった。

1回目では、インクルーシブ・ナビの外洋とアプリのセットアップについて。
そして2回目では、実際にコレド室町を訪問しナビを体験した顛末をご報告した。
この時はアプリのヘルプを読んだだけの状態だったこともあり、必ずしも納得のいく結果を得ることはできなかった。
三回目である今回はこの経験を踏まえ、このナビゲーションシステムをより深く探究すべく、再度訪問することになったわけである。

今回はなんと「インクルーシブ・ナビ」を担当されている方に同行いただけることになり、改めてナビを体験しつつ前回疑問に感じていたことなどを伺うことになった。
果たして、前回抱いた疑問は解消されるのだろうか?

※ご注意:例によって、この記事の内容は全盲の筆者が体験したこと、担当者さまから伺った内容をもとに執筆しています。前回ほどボンヤリとした内容ではありませんが、若干の認識の誤りなどが含まれているかもしれません。そのあたり、ご容赦願います。


「姿勢キープ」の重要性と方向のキャリブレーション。


さて今回もコレド室町1の地下一階から、ナビをスタートすることにした。

まず確認したのは、iPhoneを持つ「姿勢」について。
基本の姿勢はiPhoneを縦方向に持ち、水平もしくはスクリーンを顔に向ける感じで傾斜させるスタイル。iPhoneを横方向に持つのはNGだ。
そしてナビ中はこの姿勢をできるだけキープした方が、より性格なナビを行うためには重要とのことだ。持ち方よりは、この「無闇に動かさない」というのがポイントらしい。

「視覚障害者モード」を利用する場合、音声が聞きづらいと、思わずiPhoneのスピーカーを耳に近づけてしまいがちだが、このような動きはナビの精度を下げる原因になるという。そのため音声でナビゲーションを利用する場合は、骨伝導イヤホンの利用が推奨されている。骨伝導向けの音声設定も活用しよう。

ただiPhoneを手に持ってホールドし続けることが難しいユーザーもいるだろう。
その場合は腕にiPhoneを固定するホルダーなどを利用する方法もある。要するに体の向きとiPhoneの向きをしっかり固定することが大事だ。ネックストラップなどは、iPhoneがブラブラ動いてしまうので不向きとのこと。
この辺りは身体の状態に合わせた工夫が必要かもしれない。

さて姿勢を確認したら、目的地を指定してナビを開始する。
前回と同様、ここでまず「5メートル歩いて」と指示が出された。
伺ったところ、これはiPhoneが現在どちらを向いているかを推定させるためのアクションとのことだった。インクルーシブ・ナビでは、iPhoneが向いている方向を地磁気センサー(デジタルコンパス)ではなく、端末の動きを加速度センサーで計測し、その結果を元に方向を推測しているという。
そのためナビを始める前に、まずある程度の移動が必要となるようだ。

・全盲的Check Point。
壁など、比較的安全な場所を探して移動するようにしよう。


今回は「真っ直ぐ」歩けたのかな?


方向のキャリブレーションが終われば、ここからターンバイターンによる目的地までのナビゲーションが開始される。
まず現在位置でiPhoneをホールドしたまま体をゆっくり回転させ、iPhoneが振動した方向へ向かって指示された距離だけ真っ直ぐ歩く。指示された距離を歩けばまたiPhoneが振動し、次の分岐点への方向と距離が示される。これを目的地まで繰り返していくのが基本となる。

ここで前回発生したのが「真っ直ぐ歩けない」問題。
今回はどうだろうか。
結論。
今回も「真っ直ぐ歩けない」問題が勃発してしまったのだった。
ああやっぱり。

この日の筆者はどうやら右方向へ曲がりやすかったらしく、あれよあれよと通路を外れ、お店に突入したり、お店の前に置かれた荷物や看板にアタックしたり、柱や壁で行き詰まったりと、同行いただいている方々をヒヤヒヤさせまくってしまった。うーん難しいな。

インクルーシブ・ナビでは、進むべき方向が示されるのはナビを開始した直後と分岐点に到着したときのみ。
移動中に画面をタップすると分岐点までの残りの距離はアナウンスされるが、方向は確認できない。
iPhoneの画面をタップしながら歩き、残りの距離が短くなっていることが確認できれば、分岐点へ近づいていることはわかるのだが、通路から外れて歩いているかどうかは自らの感覚で感じとるしかないようだ。

お店からナニカの音、例えばレジをうつ音や呼び込みの声などが発せられていれば、それを避けて歩けるし、他の買い物客の足音を頼りに進むこともできるかもしれないが、この日は施設内がとても静かで、音を頼りに歩くことが難しかった。
加えて通路にはイレギュラーな障害物が置かれることもある。配送の荷物や台車、今回はセール期間中のためか、通路にイベント用のテーブルや椅子が置かれていたりした。これらを避けながら一人で歩くのは、かなりの難易度だ。こうなるともう、周りの人に助けてもらった方が早い気がしなくもない。

エコーロケーション(杖や口のクリック音を用いて空間を推測する身体スキル)が使える視覚障害者なら、もしかしたら支障なく歩行できるかもしれないのだが、残念ながら筆者はまだそのレベルには到達していない、初心者盲人である。でも歩行訓練は受けたんだけどなあ。

ここでアプリから方向がずれていることを確認できたり、進むべき方向を随時確認することができれば、かなり違うのではと思うのだが、技術的に難しいのかもしれない。
さらにいえば、点字ブロックなどの誘導設備があるのが理想だ。
そこまでいかなくとも、真っ直ぐ歩くためのヒント、例えば伝え歩きできる壁があるとか、地面の素材の様子などの情報が与えられれば、もう少し歩き安いかもしれないと思ったリモした。

加えて、ウロウロ迷ってしまう原因の一つとして考えられるのは、メンタルマップ、つまり頭の中に地図がインプットされていないことがあげられるだろう。事前に施設の構造を把握していれば、自分がどのあたりを歩いているかをイメージできるので、迷ってもリカバリーしやすい。歩行訓練では同じ場所を繰り返し歩き、地図を頭に叩き込むのが重要と言われている。
でもせっかくアプリでナビしてくれるなら、初めていく場所を歩いてみたいじゃないですか? 決して情報収集をさぼったわけではないのですよ本当です。

・全盲的Check Point。
指示された方向へ真っ直ぐ歩くのは、自分の感覚頼みかも。


見えないと「平均誤差2メートル」の影響は大きい。


そしてルートを目視できない視覚障害者が注意しなければならないのが、ナビゲーション中で発生する位置情報の「誤差」である。
コレドの施設内にはおよそ10メートルおきにBluetoothビーコンが設置されており、複数のビーコンで網目状(メッシュ)のネットワークを形成。ユーザーの端末がこのネットワーク上のどこに位置しているかを計測することで高精度な位置推定を行なっている。
だが、それでも現時点では「平均2メートル」の誤差が発生してしまうとのことだ。

そのためナビの通りに歩いたとしても行き止まりで指示がアナウンスされなかったり、分岐点をスルーしてしまうことがある。
ルートを目視することができれば、指示がアナウンスされなくても目的の方向を見つけて誤差をカバーすることができるが、全く見えない視覚障害者がそのような行動を取るのは、なかなか難しそうだ。

理屈としては、ナビの案内を聞いて明らかに分岐点にいるのに反応がなければ誤差が発生していると判断し、その周囲を2メートル前後移動すればいいのだけれど、全く見えない人間がそこまで冷静に判断するにはかなりの練習が必要な気がする。

・全盲的Check Point。
「平均2メートル」の誤差の可能性を常に意識しよう。


迷った時のリカバリー方法を考える。


では実際、ナビを利用していて「迷った」と感じた場合、どのような行動が必要だろうか。例えば曲がって歩いてしまい思わぬ場所に迷い込んだり、指示通りに歩いてもなんの反応もないなど、そこからナビのルートにリカバリーする方法はあるのだろうか?

筆者が体験した範囲での結論にはなるのだが、端的に言えば、
「iPhoneがなにか反応するまで移動する」
これが最もシンプルな対処法ではないかと感じた。
もし誤差が原因であれば少し移動すれば反応する可能性があるし、逆にルートから大きく外れるとインクルーシブ・ナビは正しいルートへ復帰するための追加指示を出してくれる。
つまりナビ中であれば、自分の位置を変化させることで新しい手がかりが得られる仕組みになっている、らしい。違ってるかも。
迷ったからといって、立ち止まることでは何も解決しないようだ。
回遊するマグロよろしく、移動し続けることが重要なのだ。

当然のことながら、ナビが次の反応をするまでは自力で移動しなければならない。周囲の空間を察知し安全な方向へ歩くための歩行スキルが要求される。
「真っ直ぐ歩く」こともそうだが、結局のところ、このスキルが未熟だと、色々困ることになりやすいと思うのだった。

ちなみにこのナビには「位置推定をやり直す」という機能が用意されている。これは視覚障害者モードではiPhoneを2回シェイクし、iPhoneが振動したら再度2回シェイクすることで動作する(その他のモードではボタンをタップする)。
ただ伺ったところ、位置のズレは通常自動的に修正されるため、この機能が有効なケースは少ないとのことだった。逆にこの処理を実行すると最初に行った方向のキャリブレーションもリセットされるため、結局また5メートル歩くことになるらしい。逆にナビゲーションの精度を下げてしまう可能性もあるようだ。

・全盲的Check Point。
迷ったと思っても、ナビが反応するまで移動しよう。

あ、これは今思いついただけで試してはいないのだが、迷ったら一旦ナビを終了させ、履歴からもう一度ナビをやり直す方法も考えられるかもしれない。
今度機会があれば試してみたい。


あらためて、ナビを体験した感想。


さて、今回は前回疑問に感じていたことを質問しながらナビゲーション体験をさせていただいたわけだが、実際の筆者の挙動には大きな変化は見られなかった。
結局真っ直ぐ歩くのに苦戦し、思わぬ場所に入り込み、ルートを見失いまくりだった。
それでも今回は「なぜそのようなことになるのか」を自分なりに理解したので、納得感はある。前回は少しハードルを上げすぎてしまった。迷って慌てはしたものの、今こうして少し冷静にこのナビについて考えている、つもり。

個人的な感想としては、このインクルーシブ・ナビ、全盲の視覚障害者が活用するにはまだ少しハードルが高いような気がする。
現時点では視覚情報が入ってこない全盲のユーザーが、このナビを単独でスマートに使うには、それなりの歩行スキルと空間認知能力が求められるように感じた。できれば施設内のマップを頭に入れ、少し練習した方がいいかもしれない。

もちろん視覚障害者でも歩行スキルに長けた方や、空間の様子を目視で確認できるロービジョンの方なら、印象は変わってくるかもしれない。筆者のように「全盲かつ歩行スキルがイケてない」という属性は、おそらくこのようなシステムで対応する最も難しいタイプの人間だろう。
逆にいえば、筆者がスムーズに使えるなら、大多数の視覚障害者に優しいシステムになるのではなかろうか(自己弁護)。

このハードルを下げるには測位技術のアップデートや施設のバリアフリーが進められることが理想ではあるが、時間やコストもかかるだろう(でも必要だと思いますよ!)。
だがそれ意外でも、ナビ中に提供される情報の内容を改善するだけでも使い勝手は大きく向上するようにも思う。今後の改善に期待したいところだ。

そしてもちろん言うまでもなく、このような技術やバリアフリーの整備と同時に、施設スタッフや一般来訪者への周知も必要だろう。なんだかんだで最終的に頼りになるのは人間の力だ。
どんなに立派なバリアフリー設備やICTが整備されても、人々の協力が得られなければ「仏作って魂入れず」、である。どうにも言い回しが古いねえ。


今後の展開と改善に期待。


これまで、このようなスマートフォンを活用する屋内ナビゲーションシステムは、開発の情報はあれどなかなか一般の当事者がその恩恵を受けるチャンスが少なかった。
海外ではすでに社会実装されている事例も多く、なぜ国内では公開されないのだろうか、と言う疑問の声もよく聞かれた。
技術面やコスト面、リスクなど様々なハードルがあったことは素人にも容易に想像できる中、こうして誰でも利用できる形で公開されたことは、素直に喜ばしいことと思う。

この技術はまだ始まったばかり。
当事者や支援者が積極的に体験し、フィードバックしていくことで、この技術をより良いものにしていくことが、今後の屋内ナビゲーションの普及や技術の成熟のためにも必要不可欠ではないだろうか。
使っていくことでニーズがあることをアピールしなければ、単なる社会実験に終わってしまう。それはとてももったいないことだ。

日本橋室町のインクルーシブ・ナビは、2020年春にはエリア拡充などが予定されており、それに伴いプロモーションなども本格化するとのことだ。
今後どのような変化を見せてくれるのか、期待とともに注目していきたい。

この記事をお読みの皆さんも機会があれば障害のうむにかかわらず、安全を確保した上でぜひ体験してみてくださいね。
コレド室町には、美味しそうな者がたくさんありましたよ。


最後に、今回の体験にお付き合いいただいたお友達と、インクルーシブ・ナビ担当者様にお礼を申し上げます。ありがとうございました。

2019年12月25日水曜日

視覚障害者の水泳を支援するデバイス「SwimBuddy」は、全てのスイマーに恩恵を与える。


インド国営銀行のマネージャーであるVijaykumar Kasivel氏の趣味は水泳だ。
彼は網膜色素変性症(RP)により9歳の頃から視力が落ち始め、22歳には全盲となった。3年前、彼が旅行先で訪れたコーブリー川で、泳ぐことの楽しさを発見したことをきっかけに、本格的に水泳を学ぶことにした。

だが彼が水泳を学び始めるのと同時に、大きな障壁に出会すことになった。
それは、コースに剃って真っ直ぐ泳ぐことが難しいということだ。メガ見えなければコースロープを確認することはできないし、音を頼りに壁までの距離を推測することも難しい。
彼の場合、常にコーチが付き添うことで外壁に衝突するようなことはなかったが、彼が英国を訪れた時、同じような悩みを抱える多くの視覚障害者と出会ったという。

水泳は、視覚障害者の間でも人気のあるスポーツだ。
パラリンピックに出場するレベルの選手であれば、練習の積み重ねによりコースを外れずに泳ぐことができると言われているが、大抵は晴眼者と共におよいだり、コースロープを手で辿りながら泳ぐことで安全を確保することが多いようだ。
だがこのような方法では「自由に、思い切り泳ぐ」という間隔を覚えるのは難しいのではないだろうか。

そこで彼は視覚障害者が独立し、安全に水泳を楽しむタネの方法を考え始めた。
大きなヒントとなったのは、彼が普段から使用しているSaksham社が開発した「スマート白杖」。これは超音波センサーにより障害物を検出し、振動で危険を知らせてくれる白杖である。
Vijaykumar氏は、これを応用し、水中で障害物を検知するデバイス「SwimBuddy(スイムバディ)」を考案した。
これを装着して泳ぐことにより、外壁や他の泳者に接近したことを振動で知らせるほか、コースを真っ直ぐ泳ぐ助けをしてくれるという。

「Swimbuddy」のアイデアは2019年の「Voice Vision Entrepreneurial Idea Award」を受賞した。
NGO Voice Visionの創設者Sushmeetha Bubna氏は、視覚に障害を持つ・持たないにかかわらず、水泳中は視界が制限される。このデバイスは水泳を楽しむあらゆる人々が、安全に泳ぐために役に立つだろうと述べている。
実際、水泳中の衝突で多くの人々が負傷しており、中には重い障害を残すケースもあるという。このようなデバイスが、障害者を支援するだけでなく水泳中の事故を防ぐ役にたつかもしれない。

Vijaykumar氏氏はSwimBuddyによって、視覚障害者が独立心と自信を持って水泳を楽しみ、技術を追求することを望んでいる。現在彼は、そのための技術的な支援を探しているとのことだ。。

関連リンク:

2019年12月23日月曜日

白杖に抵抗のあるロービジョンに福音?振動で障害物を通知する「LEOベルト」。


視覚障害者が屋外を安全に移動するための補助具としては「白杖や「盲導犬」がよく知られている。だがロービジョン、つまり「見えにくい」人々の中には、これらのような「すぐに視覚障害者とわかる」者を持ちたがらないケースが少なくない。
その理由には世間一般の視覚障害者に対する偏見と、ロービジョンに対する無知がある。

視覚障害者と呼ばれる人々の中で「全盲」は少数派であり、多くは「ロービジョン」と呼ばれる「見えにくい、見える時間が少ない」状態の人々だ。見えにくさは個人によって千差万別だが、視野や視力が残存していても白杖や盲導犬に頼らなければ安全に移動できない人も数多く存在する。視野が狭ければ死角にある障害物に激突してしまうし、昼間は見えていても暗い場所では何も見えなくなってしまう場合もある。

だがこの事実を知らない世間の人々の中には「白杖を持っているのに、見えている」と彼らを攻撃するような輩も、残念ながら見受けられるのも事実。
白杖を持ちたがらないロービジョンがいたとしても、全く不思議ではないのが現状だ。

英国University Hospital Southampton(UHS)の研究者は「Low-vision Enhancement Optoelectronic (LEO)ベルト」と呼ばれるデバイスを用いて、このような移動に困難を抱える人々のための、白杖に変わる新しいソリューションを開発している。

このデバイスは、3つの深度センサーカメラを搭載した「LEOベルト」と、小型のコンピューター、そして胸と両足首に装着する3つの振動ユニットで構成され、それぞれの機器がWi-Fiでワイヤレス接続される。
LEOベルトで撮影された映像はコンピューターに送信され、障害物を探知すると、その位置に応じたユニットを振動させて装着者へ通知する仕組みだ。障害物が近づくにつれ振動する間隔が短くなり、危険が迫っていることを伝えてくれる。
視野が狭かったり、暗い場所で者が見えづらいようなロービジョンでも、振動を感じ取ることで危険を回避することができるとのことだ。

これまでもベルト自体を振動させるタイプのスマートベルトは存在していたが、このデバイスはカメラと振動ユニットを分離させているところが特徴的といえる。カメラをベルトに装着することで安定した撮影を実現するとともに、3つの振動ユニットを用いることで、よりきめ細かいフィードバックを目指しているようだ。確かにベルトの振動は少しわかりにくいような気がするしね。
視覚障害者を支援するデバイスでは、しばしば「振動」によるフィードバックが用いられる。スマホは基本的に手のひらで振動を感じるが、デバイスによっては肩だったり靴底だったり、中には「おでこ」で振動を伝えるものもある。
あらゆる状況で最もわかりやすい振動の配置は、探究の余地がありそうに思える。

少し話が逸れてしまった。

UHSの研究者は網膜色素変性症(RP)の患者と、視野を制限するゴーグルを装着した晴眼者を対象に、LEOベルトを用いて4種類の迷路を突破する実験を行った。その結果、全ての被検者が安全に障害物を回避し迷路をクリアすることができたという。
またLEOベルトを装着しない場合と比較し、障害物に当たるなどのミスが44%軽減された。RP患者は特に、照明が少ない場所での有用性を指摘した。

この研究を実施したUHSの眼科医であるAndrew Lotery教授はこの結果を踏まえ、LEOベルトが次世代の補装具となりうると考えている。このデバイスは衣服の下に装着しても目立つことがなく、白杖を持ちたくないロービジョンでも抵抗なく利用できるだろう、と教授は語る。

このようなデバイスによって、ロービジョンの日常の不便や危険が回避できるようになれば、それはとても素晴らしいことだ。
だが個人的にはロービジョンの人も抵抗なく白杖を持てるような世界になるのがベターではあると思う。見た目で障害者と判断されることが「デメリット」と思われてしまう風潮が、少しでも減ることを切に願うばかりだ。

関連リンク:


2019年12月22日日曜日

全盲的「インクルーシブ・ナビ@コレド室町」体験記(2)突撃編


スマートフォンを用い、音声と振動で視覚障害者を道案内してくれる「インクルーシブ・ナビ」。アプリのインストールとイメージトレーニングを終え、いよいよ現地・コレド室町へ乗り込む突撃編。
正直、いきなり行って使えるのか不安もあるが、多分なんとかなるだろう。


インクルーシブ・ナビを利用できる「コレド室町」は、東京都中央区にある商業施設。「コレド1」から「コレド3」まで3つの建物に分かれており、それぞれが連絡通路によって接続されている。
全盲の筆者は地図で確認することはできないが、周囲の様子や同行いただいたお友達のお話を総合すると、日本橋三越本館から中央通りを挟んで向かい側くらいに鎮座しているようだ。最寄りの公共交通機関は東京メトロ・銀座線の三越前駅、または半蔵門線の三越前駅、JR総武快速線の新日本橋駅。ただ半蔵門線、総武快速線の駅からは5分ほど歩く。

インクルーシブ・ナビでは、コレド1からコレド3の建物内と地下道にある近辺の施設をカバーしている。地下道からコレドの地下一階へは直結しており、ここからナビを試してみることにした。
なお訪問は平日のお昼すぎ。施設内は一部を除き、さほど混雑していない状況だった。筆者が使用したのはiOS13のiPhone 7だ。

※ご注意:本記事の内容は、あくまでも筆者が試行錯誤しつつ経験した者です。必ずしもインクルーシブ・ナビの正しい使い方を表現しているものではありません。ご参考程度にお読みください!


インクルーシブ・ナビを試す。


コレドの地下入り口から入り周囲に邪魔にならない場所を見つけたら、、アプリを起動し「日本橋室町地区」を選ぶ。モードは「視覚障害者」を選択……というかVoiceoverを有効にするとこれ以外は選べない。
ここで自宅でイメトレした時に表示されていた「位置情報が利用可能ではありません」のメッセージが表示されないことに気づく。つまり、いまエリア内にいるよ、ということ。
試すのを忘れていたが、もしかしたら三越前駅の改札口から利用できたりするのだろうか。であれば全盲でも改札まで駅員の誘導で移動し、単独で優雅にショッピングを楽しめるかもね?
期待は膨らむばかりだ。

さて、データがロードされたら適当な場所を検索し、目的地を設定。「開始」ボタンをタップし、ナビゲーションをスタートさせる。
ちなみに姿勢はiPhoneを左手にもち、体の正面に構える。右手には白杖。多分こんな感じだろう。そんなに大きく間違ってないと思うけど。とにかくやってみることが大事だ。

さて、いきなりここで難問発生。
ナビを始める前に、まず5メートルほど歩きなさいとアプリがおっしゃるのである。
想像だが、BLEビーコンとスマホの位置を調整する必要があるのかもしれない。いきなり知らない場所、しかも屋内を5メートルあるくのは全盲としては少々抵抗があるが、言われたからには、おっしゃる通りに歩きますとも。はい。
白杖で障害物がないか、歩行者がいないか注意しつつ、慎重に5メートルくらい歩くと端末が振動し、いよいよここからナビゲーションの本番だ。


ターン・バイ・ターンのナビときめ細かい情報提供。


移動の指示は基本的に「○メートル歩き、○に曲がる」という形式。いわゆる「ターン・バイ・ターン」と呼ばれるナビ方式だ。一般的なカーナビをイメージしてもらえればわかりやすいだろう。
どの方向へ歩けばいいかは、指示されたタイミングで立ち止まってクルクル周り、振動した方向がたぶん正解、のようだ。
向かう方向がわかったら、障害物や歩行者に注意しながら真っ直ぐ進む。
指示された場所に到達すると通知音とともにiPhoneが振動し、次の指示がアナウンスされるので、またクルクル回って方向を見つけ、さらに歩く
これを目的地まで繰り返すのが基本だ、と思う。
(すみません、憶測が多くて)

指示通りに歩いていくと、結構色々な情報が耳に入ってくる。
たとえば目的地や分岐点に近づくと残りの距離を教えてくれたり、到着直前には「そろそろです」とアナウンスされる。
また自動ドアや点字ブロック、スロープを通過する時はその情報、通路が狭くなっている場所に近づけば注意してくれる。さらに通過中にあるお店や施設の情報もすべてではないが、たまに教えてくれるのも面白い。ナビゲーションに目的地へ向かうだけではない「寄り道」の楽しさが加わっているのは画期的だと感じた。ただお店の名前だけだと、なんのお店かわかりにくいかな?店名、お洒落すぎて中年男性にはさっぱりわからないのである。

エレベーターの前に到着すれば、ボタンの位置も教えてくれるのが親切だ。ただエレベーター内のボタン横には点字は付いているものの、それ以外の情報がなく点字が読めないとボタンを押すのに難儀するかもしれない。この辺りはナビゲーション側の問題では無いので解決は難しいかもしれないが。

目的地に到着すると、振動と共にアナウンスされナビが終了する。
大きなお店、例えば無印良品だと、明らかにもう到着してるのにナビが継続していたりする。これは多分目的地がレジなどにピンポイントで設定されているのだろう。お店の人に超えをかけやすい場所に設定されていることを信じたい。
ナビゲーションと人力支援をシームレスに接続することで、はじめてこのようなシステムの効力が発揮できるはずだ。そのためにはこのシステムが店舗スタッフに周知されている必要もあるだろう。

一つ気になった点。
コレド1からコレド2のお店へ、といった建物をまたぐルートを検索すると、例え1Fから1Fへの移動であっても連絡通路のあるフロアまで移動するルートになってしまい、かなりの遠回り感がある。屋内限定なので仕方がないと思うが、将来的に屋外にビーコンが設置されれば解決するのだろうか。もちろん安全性や雨に濡れないなどを考えての仕様かもしれないが、選択肢が増えてくれる方が望ましいと思ったりする。


「まっすぐ歩けない」問題。


全盲ユーザーとして「インクルーシブ・ナビ」を体験し最も困ったのは、ルートに剃って歩こうにも、なかなか真っ直ぐ歩くのが難しいということだった。
これは筆者の歩行スキルの未熟さも大きな要因と思うが、距離が長くなるとどうしても左右どちらかに曲がってしまいルートを外れてしまう。コレドの施設内には点字ブロックは基本敷設されておらず、通路の左右は店舗があるため壁を伝ってあるくこともできない。お店の方へ曲がってしまい、立て看板に当たりそうになったこともあった。
また、他の買い物客やにもつを運ぶ台車などに注意し、時にそれらを回避しながら歩いていると、進むべき方向を見失うこともある。

そしてナビではルートを外れても、すぐにそれを通知してくれず、歩いても歩いてもアナウンスがない……といった状況にしばしば陥った。つまり今自分が正しい方向に歩いているのかどうか、わからなくなる。で、忘れた頃にルートを外れていることを教えてくれたりする。こうなると結構パニックになってしまい、焦る。
後でヘルプを確認すると、迷ったら画面を1回タップするといいらしいが、すっかり頭から抜け落ちていたのだった。

一度迷ってしまうと同じ所をうろうろしたり、進む方向を見つけようとクルクル回ったり、もう大変なことになる。落ち着けとあの時の自分に言いたい。
東京の中心にある商業施設でクルクル回る全盲中年。
端から見たら、結構怪しい。知らない人が見たら、ぎょっとするのではなかろうか。

また(多分)スムーズに歩けている場合でも、分岐点を通知する前に突き当たりの壁に当たってしまうこともあった。つまり指示されている方向に空間が存在しない、と言う状況である。この時はiPhoneを2回シェイクすることで、分岐点の指示がアナウンスされた。ヘルプによるとこのジェスチャは位置推定のリセットらしいのだが、これをうまく使う方法があるのかもしれない。

ちなみに点字ブロックに沿って歩いている時は、ナビゲーションはかなり正確だった。
足元に渓谷ブロックを感じた瞬間に分岐点の指示が出されたのにはびっくり。またエレベーターの乗り降りのタイミングでのアナウンスも完璧だった。
それを考えると、ナビにしたがって「真っ直ぐ」歩句ことができれば、迷わず正確なナビをしてくれるのではないかと想像できる。
だが視覚障害者、特に筆者のような歩行スキルが未熟な全盲だと、目印の無い場所を常にルート通りに移動するのは難しい場合が少なく無い。現状では単独で優雅にショッピング、という雰囲気とはかけ離れた、くるくる挙動不審な行動になってしまった。
残念無念。

歩行スキルが高ければスムーズにナビできるかもしれないが、「全盲3歳児」の筆者のような盲人ビギナーでも安全かつ正確に歩ける方法があると思うんだけどなあ。
そんなことを考えつつ、今回はタイムアップ。
ちょっとしたモヤモヤとともに、帰途についたのだった。


今回の感想。そしてまさかの次回へ続く。


さてイメートレだけで飛び込んだインクルーシブ・ナビ。
感想としては「ちゃんとナビしてくれる。真っ直ぐ歩ければ。」と言ったところ。

ナビゲーションの内容は情報も多く、きめ細かい。特に通過中に周囲の情報を教えてくれるのは、視覚障害者にとっては嬉しい機能と感じた。単純に目的地へ行くだけになりがちな移動がちょっと楽しくなる。まあこの辺りは人によると思うけどね。ちなみにこのアナウンスは設定から無効にできるようだ。

ただ目的地までスムーズに到達できることもあれば、ルートを外れてしまい迷ったり同じ場所をウロウロしてしまうこともあり、ちょっとナビに翻弄された印象だった。
だがこれは正しい使い方をしていなかったことに起因する可能性もある。ルートを外れてしまうのはある程度仕方がないと思うが、リカバリーに何かしらのコツがあるのであれば、それを会得することでもっと快適に、慌てずに利用できるようになるかもしれない。
そもそもiPhoneを持つ姿勢とか、ただし買ったのかも怪しいところ。
これはもう一度チャレンジせねばなるまい。

というわけで、今回の体験を踏まえた上で近日インクルーシブ・ナビのリベンジ体験を決行予定である。もろもろの疑問が、もしかしたら解けるかも?
次回「解決編(仮)」は一週間ほど後になる予定!
あまり期待しすぎない程度におまちください。


2019年12月17日火曜日

全盲的「インクルーシブ・ナビ@コレド室町」体験記(1)準備編


スマートフォンを用いて視覚障害者の移動を支援する技術は、世界各地でさまざまなプロジェクトが進められている。GPSなどの測位衛星を用いスマホ単体で屋外ナビを行うアプリはいくつか実用化されているが、屋内施設にBluetoothビーコンなどを設置するナビゲーションに関しては、日本ではこれまで実証実験がくりかえされており、その成果はサイトワールドのワークショップなどで報告されてきた。
そしていよいよ2019年11月、三井不動産と清水建設、日本IBMの共同プロジェクトによる屋内ナビゲーションサービス「インクルーシブ・ナビ」が、東京日本橋室町にあるショッピングセンター「コレド室町」で提供開始された。

関連リンク:

2017年2月に同所で実施された「NavCog)navigational cognitive assistant)」を利用した実証実験を踏まえ、「インクルーシブ・ナビ」として正式にリリースされた格好だ。
施設内に設置されたBLEビーコンと、IBMAI技術「Watson」を用い、スマートフォンにインストールされた専用アプリと連携させることで訪問者をナビゲートする。
視覚障害者はもちろん、車椅子やベビーカー、訪日外国人など多様なニーズにきめ細かく対応しているのが特徴だ。

もちろん全盲で支援技術に興味津々な筆者が、これに食いつかないわけがない。
さっそく、この屋内ナビゲーションを体験するべく、コレド室町へ向かったのである。
その顛末を、何回かに分けてご報告したい。


アプリのインストールとセットアップ。


もちろん、丸腰でコレド室町へ突入しても、何もできないことは知っている。
それなりに準備が必要だ。
まずは「インクルーシブ・ナビ」のスマートフォンアプリをインストールする。
ダウンロードはこちらから(App StoreGoogle Play)。

iPhoneの場合、対応するのはiOS10以降を搭載したiPhone。動作を保証しているのはiPhone 7とiPhone Xシリーズで、筆者はiPhone 7、iOS13.3で利用した。ヘルプによるとiPhone SEは対象外とのこと。

執筆時点でのアプリのバージョンは「2.0.8:。インストールされたアプリはホーム画面上に「IncNavi」という名前で表示される。
初回起動時に、位置情報サービス、Bluetooth、マイクなどの使用許可を尋ねてくるので、すべて有効にしておく。またiPhoneのBluetoothをオンにすることも忘れずに。さらにサイレントモードでは効果音などが鳴らないのでこれもオフにしておく。

アプリを起動するとまず表示されるのが「プロジェクト選択」画面。
まずここではユーザーのニーズに合わせて「モード」を選択する。なおVoiceoverが有効になっていると、モードは自動的に「視覚障害者」に固定されるためモードの選択は省略される。
モードは「視覚障害者」の他に、「車椅子利用者」「ベビーカー利用者」「一般利用者」が用意されており、一般では最短のルートを、ベビーカーや車椅子では段差やスロープなどを考慮したルートが提示されるとのことだ。
とりあえず本記事では「視覚障害者」モードを用いて話を進めていく。

さて、プロジェクト選択画面では、インクルーシブ・ナビを体験する施設を選ぶ。いくつか選択肢が現れるが、執筆時点で利用できるのは「日本橋室町地区」のみ。
まずははじめに一回だけ、ナビゲーションに必要なデータをダウンロードしておく必要がある。Wi-Fiに接続されていることを確認してからプロジェクト名(ここでは日本橋室町)をタップし、データのダウンロードを行っておこう。この処理には少々時間がかかる。
余談だが、Voiceoverがオンだとダウンロード中の音声がちょっと騒がしいので音量などに注意した方が良いかもしれない。

これで、コレド室町でインクルーシブ・ナビを体験できる準備は整った。


まずは練習してイメージトレーニング。


いきなり現地に乗り込むのも不安なので、ルート検索からナビゲーションまでの手順も一通りチェックしておこう。
現地に行かなくても検索機能や「プレビュー」を使ってナビゲーションの練習ができる。

プロジェクトを選択するとまず「ルート検索」「対話検索」の2つのボタンが表示される。筆者の環境ではたまにプロジェクトを選択しても検索ボタンが押せない場合があった。その場合は「設定」を開いて「プロジェクト選択に戻る」をタップし、もう一度プロジェクトを選び直すと推せるようになった。

「ルート検索」は施設のカテゴリや施設名などを選んで目的地を指定するモード。
「対話検索」は音声でアプリと対話しながらナビゲーションを利用するモードだ。
Siriをイメージすればわかりやすい。施設の名前が分からなくても、ジャンルや好みを話しかけて検索できるようだが、ちょっとコツが必要という印象。使いこなせれば音声だけでナビゲーションを完結できるので便利だろう。

とはいえ筆者はコツを掴みきれなかったので「ルート検索」を用いることにした。
「ルート検索」ボタンをタップすると、ルート設定画面が開く。
このモードでは出発地(基本的には現在地)と目的地を指定する。目的地のボタンをタップすれば、「施設の種類」「建物・フロア」「近くの施設」などで分類された目的地リストから行きたい場所を選べる。Voiceoverローターを「見出し」に合わせておけば、上下スワイプでサブカテゴリへジャンプできるのでわかりやすい。

ルート設定画面の「検索設定」を開くと、ルートに優先的に含める施設の設定ができる。
点字ブロックやエレベーター、エスカレーター、動く歩道、階段のそれぞれを使用するかどうかを、それぞれの設備のオン/オフで指定可能だ。

目的地を指定したら、画面の一番下にある「開始」をタップすればナビゲーションが開始されるが、エリア外だとこのボタンは無効になっているので、その上にある「プレビュー」をタップしよう。ルート全体の情報が読み上げられ、プレビューが開始される。
プレビューでは、ナビゲーションでどのような指示が行われるかを確認できる。実際に移動したり方向転換する必要はなく、自動的にルートが進められ、音声やバイブレーションの感覚を体験できる。「視覚障害者」モードではターン・バイ・ターンによる移動指示にくわえ、通過している途中の施設のアナウンスもしてくれることがわかる。
ナビ中は画面のどこかを一回タップすると、現在の状況を読み上げる。プレビューの進行スピードは「設定」から変更可能だ。目的地へ到達するか、「案内終了」をタップすればルート検索画面へ戻る。

さて、アプリの準備とイメージトレーニングができたので、いよいよコレド室町へインクルーシブ・ナビを体験しに出かけて見ることにした。
BLEビーコンを用いた屋内ナビゲーションは、海外ではいくつか社会実装例があり、一体どこまで実用的なものなのか、とても気になっていた。それがいよいよ国内でも体験できる。果たして全盲でも自由にショッピングが楽しめるようになるのだろうか?


続きは次回エントリーで!

2019年12月7日土曜日

インド発。「Annie」はゲーム感覚で点字を単独学習できるデバイス。


点字は長きにわたり視覚障害者の情報取得を支えてきた重要な伝達手段である。
一般の人々の中には当然のように「視覚障害者は点字を読める」と思っている人も少なくないのではないだろうか。だが実際には、点字が読める視覚障害者の割合は世界的に下がり続けている。
性格な統計データは見つけられなかったが、視覚障害者における点字の識字率は日本や欧米で1割から2割程度。視覚障害者の数が世界で最も多いインドでは、わずか1%未満だという。
いかにして点字の識字率を回復させるか。多くの関係者は頭を悩ませている。
解決策の一つは、やはり点字学習環境の再構築にあるだろう。

インドのスタートアップThinkerbell Labsが開発した「Annie」は、ゲーム感覚で点字を学ぶことができる電子デバイスだ。
「Annie」という名前は、ヘレン・ケラーの家庭教師であったアン・サリヴァンにちなんで名付けられた。

Annieの前身は2014年にSanskriti Dawle氏とAman Srivastava氏によって開発された「Project Mudra」と名付けられたRaspberry Piベースの点字学習デバイス。
このイノベーションは視覚に障害を持つ生徒や教師たちから熱狂的に受け入れられ、それを受け2016年、Dilip Ramesh氏とSaif Shaikh氏とともにThinkerbell Labsを設立。Project Mudraを発展させた画期的な点字学習デバイス「Annie」の開発に着手した。

Annieは、触覚と音声を用いて点字を単独学習することを目的とした、スタンドアロンで動作するパッド型の電子デバイスだ。
利用者は内蔵されたアプリケーションを通じて、点字の読み取りと書き込み(入力)方法を楽しく学ぶことができる。
タブレット型の本体には、6セルの点字ディスプレイと点字入力キーボード、ナビゲーション用のボタンとスピーカーを搭載し、Wi-FiとBluetoothによる無線通信機能も備える。universal Braillerをベースにしたキーボードの形状は、テレビゲーム機のコントロールパッドで見られるものとよく似ている。

Annieの目的は、音声ガイドを用いたレッスンと、ゲームやクイズなどの形で提供されるインタラクティブなコンテンツによって、点字を楽しく学習することにある。
例えば「点字テトリス」。
これは点字ディスプレイに表示されるアルファベットを指で読み取り、同じ文字をキーボードから入力することでどんどん文字を消していくというもの。
入力を間違えるとその文字が残り、次の文字が出現する。テトリスというよりは、懐かしの「ゲーム電卓」みたいな感じだろうか。
従来のような紙に印刷された教材でひたすら読み書きをするよりも、明らかにこちらの方が学習意欲は高まるであろうし、なにより教師など晴眼者のサポートなしで進められるのは大きなメリットだろう。

Annieはヒンディー語、英語、カンナダ語、テルグ語、マラーティー語に対応しており、200時間以上のレッスンと語彙を学習するための数千語の辞書も含まれる。レッスンでは地元のアクセントを学ぶメディアも付属し、点字に限定されない幅広い語学学習環境を提供する。

さらにThinkerbell社はAnnieデバイスとローカライズされたコンテンツ、これらを管理する晴眼教師向けのダッシュボードと環境構築を統合した「Anni Smart  Classes」も開発。教師はHelios Analytics Suiteを用いて生徒の学習状況を簡単に管理・分析し、新しいコンテンツをダウンロードしてAnnieデバイスへ導入できる。
Annieは今後、インド国内および世界に向けて、より専門的なコンテンツを提供し、英国や中東地域へその事業を拡大したいと考えているようだ。

点字は視覚障害者にとって重要なスキルの一つであることは今後も変わりないだろう。特に就労においては点字の習得が大きな影響を与えているというデータもある。それだけに若年層に対する点字学習環境の改善は大きな課題だ。このようなデバイスが、点字の識字率を向上させるきっかけになるのか。注目したい。

ちなみに筆者も現在、絶賛点字の勉強中。
個人的には、いますぐ使ってみたい。普通に楽しそうだし。

関連リンク:

2019年12月6日金曜日

[粗訳]「Envision AI」v2.1.0アップデートリリース。


2019年12月5日、Envision AIが、バージョン2.1.0へアップデートされました。(iOS版で確認)そのアップデートリリースのざっくり翻訳に補足を加えたものです。
──────────

お祭りの季節とともに、大きなアップデートがやってきました!
新しい機能についてご説明しましょう。

1. Siriショートカット

「ヘルプ」タブから、Envisionの全てのアクションに対して、Siriショートカットを設定することができるようになりました。
たとえば「Hey, Siri。これを読んで。」と話しかけてすぐにテキストの読み上げをはじめたり、「この色はなに?」とSiriに尋ねていろ検出のアクションを実行できます。
お試しになりましたら、ぜひ結果をシェアしてください。

※設定するには「ヘルプ」タブの「設定」にある「Siriショートカット」を開き、Siriから呼び出したいアクションを開きます。テキストフィールドにSiriへ呼び掛けるフレーズを入力し「Add to Siri」をタップして登録します。この画面をもう一度開くとショートカットの編集/削除ができます。

2. 3D Touchショートカット

よく使うEnvisionのアクションを、3D Touchショートカットに設定できます。ホーム画面のEnvisionアイコンを強くプレス(または音が鳴るまでロングタップ)することで、目的のアクションへ素早くアクセスすることができます。

※設定するには「ヘルプ」タブの「設定」にある「3D Touchショートカット」を開きます。ここでショートカットに表示するアクションを登録、削除、並べ替えします。登録できるアクションは最大で4つまでです。

3. ホリデーシーズンがやってきました。割引セールの始まりです。購入をお考えのあなた、今サインアップすれば、通常のおよそ半額でEnvisionをご利用いただけます。

※iOS版のセール価格:月額100円、年額1,480円、生涯利用11,000円。
月額、年額プランは翌月/翌年以降は通常料金に戻ります。セール終了時期は不明です。

4. 新しい、クリスマスっぽいアイコンと効果音が登場しました。

5.「文章の読み上げ」アクションにいくつかの改善を加え、以前よりもスムーズに操作できるようになりました。

もちろん、いつものように、パフォーマンスを改善するたくさんの変更も施されています。今月後半に行われる「特別な発表」については、ソーシャルメディアをチェックしてください。
それまで、ご家族やご友人と素敵なホリデーをお過ごしください。

Yours truly,
The folks at Envision


2019年12月5日木曜日

Seeing AI 3,3リリース。待望の日本語化だけど……。


Microsoftは2019年12月3日の国際障害者デーに合わせ、視覚障害者を支援するiPhone用画像認識アプリ「Seeing AI」の最新版であるバージョン3.3をリリースした。iOS10以降のiPhone、iPad、iPod touchに対応し、現在App Storeから無料でダウンロードできる。
Seeing AIは、カメラで捉えた書類や人物、風景などを画像認識AIで解析し、何が写っているかを音声で読み上げることで、視覚障害者の「目」の代わりをしてくれるアプリだ。
以下の8種類のモード(チャンネル)が用意されている。

  • 短いテキスト(リアルタイムの文字認識)
  • ドキュメント(書類のテキストを抽出)
  • 製品(バーコードを読み込み情報を取得)
  • 人(顔検出して登録した人物を識別)
  • 通貨(紙幣の識別)
  • シーン(風景、オブジェクト認識)
  • ライト(明るさ検出)

バージョン3.2から3.3での主な変更点は以下の通り。

  • 日本語を含む5つの言語に対応。
  • 「通過」チャンネルが日本円に対応。
  • 日本語環境で「Handwriting」チャンネルが無効に。
  • Siriショートカット、Haptic Touchショートカット対応。
  • そのほか、細かい修正。

「日本語対応」と言うことでメディアでも大きく取り上げられているSeeing AI 3.3。
インターフェイスはもちろん、これまで英語で読み上げられていたシーン解析の結果なども日本語で読み上げられるようになり、非常に分かりやすくなった。言葉の壁でSeeing AIを敬遠していたユーザーも気軽に試すことができるだろう。

ただ肝心の認識機能自体は前バージョンとさほど変化はしていないようだ。テキストの認識は以前から日本語に対応されているが、他のOCRアプリと比較すると、誤認識が気になるし、商品バーコードの識別も国内の製品はほぼ読まない(輸入食品などは英語で読み上げる)。あ、でも「きのこの山」は「Kinoko no Yama」として海外向けの情報が表示された。海外で販売している商品は識別するようだ。
今回の「日本語化」は、とりあえずインターフェイスの整備が中心で、本格的なローカライズは今後に期待、と言ったところだろうか。

日本円の識別ができるようになった。


今回のアップデートで新機能と言えるのが、日本円の識別。
チャンネルから「通貨」を選択し識別する通過を設定すれば、iPhoneを紙幣にかざしてリアルタイムに紙幣の種類を読み上げてくれる。このモードはオフラインでも動作する。
試してみたところ、現状まだ認識速度が遅い上に誤認識が多い印象。おそらく光のあたり具合などが影響していると想像できるが、同じ紙幣を撮影しているのに「1万円」と読んだり「千円」と読んだりする。一万円札を「千円」と識別されると、お試しとはいえちょっとカチンとくる。テキストなら多少の誤認識も許容できるが、紙幣を間違って認識されるのはちょっと困ったことになりそうだ。
紙幣識別アプリは定番の「Nant Money Reader」が公開終了となり、無料アプリの選択肢が少なくなった上、2024年には新紙幣も登場する。安定して利用できるアプリとしてSeeing AIが期待されるだけに改善を願いたいところだ。

個人的お気に入り機能。


ここで突然。
筆者がお気に入りの「Seeing AIならでは機能」ベスト3を発表。

第3位「短いテキスト」チャンネル。
リアルタイムでテキストを識別し読み上げてくれる機能。
Envision」を購入できない貧乏ライターの筆者にはありがたい。
ちなみに性能はEnvisionの方が良いみたい。

第2位「ドキュメント」チャンネルの自動タグつけ。
書類をスキャンしてテキストを抽出する機能。OCRの精度は最高!とは言えないが、ドキュメント内の見出しやリストを自動的に判別してタグをつけてくれる機能がとても魅力的。Seeing AIのビューワで見出しジャンプを使って読むこともできるし、PDFにエクスポートすればタグが付いた状態で出力できる。
撮影台を使ったり照明を調整するなどして誤認識を減らす工夫をすれば実用的かも。
あと、撮影時のエッジ検出機能は優秀だと思う。

第1位「シーン」チャンネルの「写真の探索」。
この機能だけでもSeeing AIを使う価値があると思う。
撮影した写真や保存された写真をインポートして「探索」をタップすれば、写真に写っているオブジェクトをタッチとサウンドフィードバックで探すことができる。つまり写真が見えなくても、どのあたりに何が写っているのかがわかる。とても楽しい。

Seeing AI、今後の展望は?


「視覚障害者のスイスアーミーナイフ」とも呼ばれるSeeing AI。このアプリの魅力は、最先端の画像認識技術がオールインワンにパッケージングされているという点にあるだろう。だがバージョン3.0のリリースから2年ほど経過する間、視覚障害者を支援するアプリは急速に進化を続けており、Seeing AIの優位性は以前ほどではなくなっているのも事実。実際、当事者間では「Envision」など有料だが高品質なアプリが大きな支持を得ている。

これはMicrosoftも語っていることだが、Seeing AIは視覚障害者の支援を行う一方で、「社会貢献としてのAI」というMicrosoftの活動を一般ユーザーに示すためのショーケースとしての側面もある。今回のリリースが12月3日の国際障害者デーに合わせたことで多くのメディアに取り上げられ、その目的はある程度達成されているように見える。

今後Microsoftがどの程度このアプリに注力するのかは不透明だ。Android版に言及しないあたり、どうなのかな?と勘繰ってしまう。
だがある意味Envisionをはじめとした有能なアプリが商業的に成立するためには、Seeing AIは「無料だけどそこそこ使える」くらいのポジションをキープしている方が健全なのかもしれない。何せ相手は巨人Microsoftだからね。

視覚障害者を支援するアプリの中でも、画像認識AIを応用したアプリは最もホットなジャンルと言えるだろう。Seeing AIEnvisionAndroid版)、そしてGoogleのLookout。さらに最近では韓国から「sullivan plus」というニューフェイスも登場している。
これらのアプリが良い意味で競い合い、技術を磨きあうことで性能が向上し、視覚障害者の生活をもっと便利にしてくれることを望みたい。


2019年12月3日火曜日

[iPhoneアプリ] 無料で使えるICカード読み取りアプリを色々試してみる。


iOS13の登場で、iPhone 7以降に搭載されているNFCを用いたサードパーティ製アプリが解放され、用途が大きく広がった。その一つが、SuicaやPasmoなどの交通系カードやNanacoなどの電子マネーのICカードの情報取得。
QRコードでキャッシュレスな人々にとっては今更ICカードかよと思われるかもしれないが、ICカードはそれなりのメリットも使う意味もあるのである。筆者も無記名のPasmoを障害者手帳に忍ばせて活用している。

さて、そんなiPhone 7以降とiOS13で実現したICカードの読み取り。
全盲の筆者にとって、ICカードの残高がいつでも確認できるようになったのは大きな進歩。目が見えていればチャージする時や自動改札を通過した時に残高を確認できるが、筆者は確認する手段が限られていた。まあ大抵は有人改札をとる時に確認してもらうんですけどね。
もちろん晴眼者にとっても、利用履歴を取得してそのデータをエクスポートし、交通費の管理に活用するなど大きなメリットがある。

iOS13のリリース以降、ICカードを読み取るアプリは数多くリリースされている。ここではその中から基本無料で使えるアプリを5本ピックアップし、Voiceoverユーザー視点でインプレッションを書いてみたい。

いずれのアプリも使い方はほぼ同じ。スキャンボタンをタップすると読み取り待ちになるので、ICカードをiPhoneの裏面にかざす(iPhone 7であればアウトカメラ付近)。読み取りが成功すればサウンドとともにiPhoneが軽く振動し、読み取られた情報が表示される仕組みだ。
アプリごとに残高の表示や明細に含まれる情報に違いがあったり、エクスポートや履歴データの管理方法に特徴がある。そのあたりも含めてチェックしていこう。

※各アプリの内容は執筆時点のものです。今後変更・改良される可能性があります。

CardPort


開発/Yuki Yamashita
Version.2.0.16

このアプリはVoiceover対応を公式にアナウンスしているので(確か)、視覚障害者も安心して利用できる。ボタンも的確にラベル付けされている。ICカードの読み取りは画面の一番下中央にある「スキャン」と読み上げられるボタン。
ICカードをスキャンし、「履歴」タブを選択すればICカードの利用履歴を日付ごとに表示してくれる。日付に見出しタグが付けられているが、曜日や日毎の利用金額にも見出しが付けられているので、見出しジャンプの効果が薄いのが惜しい。
「カード」タブではシンプルにカードの残高を確認できる。いずれも数回スワイプすれば残高を読み上げてくれる。
ICカードの名前はカスタマイズできるので、同じ種類の複数のカードを管理するときも便利だろう。また、スキャンした利用履歴は期間を指定してCSV形式もしくはメール本文に記載する形でエクスポートできる。カードの名称変更やエクスポートは「カード」タブで表示されるカード名をタップして実行する。
さらにCardPortはショートカットにも対応指定おり、Siriから簡単にカードのスキャンを実行できる。手順は後述。

マルチICカードリーダー


開発/HALLUCIGENIA, INC.
Version.1.15.1

ICカードのスキャンは「Button Scan」と読み上げられるボタン。お察しの通り、一部のボタンにラベルが付けられていない。ただ実用には問題はない。
スキャンが完了すると利用履歴がリストアップされる。窓口で清算した履歴で駅名が表示されない、残高が各明細の末尾に表示されているためちょっとわかりにくいなど、Voiceoverユーザーには少し不便に感じる部分もある。あとリスト中に広告が表示されるのも微妙かな?
利用履歴はスキャンした単位で保存され、CSV形式でエクスポートできる。

ICカードリーダー by マネーフォワード


開発/Money Forward, Inc.
Version.1.5.0

カードのスキャンは「ICカードをスキャンする」と読み上げられるボタン。ボタンのラベルは一部を除いて的確に付けられている。少し気になったのは筆者のケースだけかもしれないが、他のアプリと比べてICカードの読み取りエラーが発生しやすいように感じた。もたもたしていると、すぐタイムアウトしてしまう。でも気のせいかも。スキャンが成功すると音声でアナウンスしてくれるのが親切。
ICカードのスキャンが成功すれば、カード名称と残高、利用履歴が表示される。利用明細は駅名、路線名もしっかり表示されわかりやすい。
またカードの名称は好みのものにカスタマイズできる。さらに明細画面から、履歴をCSV形式もしくはマネーフォワードのアプリへエクスポート可能だ。ただスキャンした履歴は保存されないようなので、逐一スキャンしなければならないのは手間かもしれない。

ICリーダー


開発/Shintaro Kawamura
Version.2.0.16

スキャン実行は「ボタン」と読み上げられるボタンから。ラベルが付けられていない要素が多いので注意が必要。実用には問題ないが、機能が充実しているだけに残念に思う。
利用履歴は日付ごとにリストアップされ、見出しジャンプを使ってブラウズできる。また日付などでリストのフィルタリングができるのも特徴。Siriショートカットも用意されている。
利用履歴はスキャンした単位で保存され、CSV形式でのエクスポートも可能だが、アプリ内課金(120円から)が必要。

Japan NFC Reader


開発/Ryoga Tanaka
Version.0.2.9

ICカードの読み取りは「スキャン」ボタンから。ボタンのラベル付けは問題なく、Voiceoverで快適に操作できる。
デフォルトではスキャン後すぐに利用履歴を詳細表示するが、残高だけを表示させることも可能。カード名称のカスタマイズにも対応している。
個人的には履歴の種別が「交通機関」「支払い」「チャージ」といったようにわかりやすい表記なのが好印象。ただ自動改札と窓口清算の区別や路線名が表示されないのは使い方によっては不便に感じるかもしれない。
「履歴」タブを開くと、かこにスキャンしたデータへアクセスできる。エクスポートは詳細表示画面の「共有」から実行する。ここでは書き出したい項目を選択したり項目名もカスタマイズでき、用途に応じて最適なデータを出力できる。エクスポート機能を重視するなら要チェックだろう。


ショートカットを使ってICカードをスキャンする。


本記事で紹介したアプリの中で「CardPoet」と「ICリーダー」はSiriショートカットに対応している。「ショートカット」アプリで新規ショートカットを作成しアプリからCardPortもしくはICリーダーのアクションを登録すれば、Siriから直接ICカードのスキャンを実行できて便利だ。
ここではCardPortのショートカット作成手順を紹介しよう。

  1. 「ショートカット」を起動しマイショートカット」タブを開く
  2. 「ショートカットを作成」を開き「アクションを追加」をタップ
  3. 「App」をタップし「CardPort」を開く
  4. 「カードをスキャン」を開き「次へ」をタップ
  5. ショートカット名を入力する。この名前が音声コマンドになる
  6. 「完了」をタップ

これで完了。Siriを起動し登録したショートカット名を話すと、CardPortが起動してスキャン待ち状態になり、即座にICカードをスキャンできる。

なんとなく、まとめ。


今回取り上げた5アプリは、多少ラベル付けで差はあるもののVoiceoverで利用することができた。ラベルが付けられていないボタンも機能は明確なのでカスタムラベルを付けるのも難しくないだろう。
個人的な印象としては、シンプルに残高や最近の履歴を確認する用途であればショートカットにも対応した「CardPort」、履歴の管理を重視するなら「Japan NFC Reader」が良さそうと感じた。
ただアプリごとに履歴の明細に表示される内容に微妙な違いがあるため、利用スタイルによっては他のアプリの方が便利に使えるかもしれない。所有カードの枚数などによっても印象は違うかも。自分の用途にマッチしたアプリを見つけてみよう。

P.S.
ここではICカード読み取り専用アプリを紹介したが、「乗換案内Jorudan)」や「バスNAVITIME」といった乗り換えアプリにもICカードの残高を確認する機能が追加されている。バスNAVITIMEはちょっとVoiceoverでは使いにくいけどね。


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...