2019年7月28日日曜日

米ウォルマート、薬の情報を音声で提供する「ScriptTalk」。


「お薬は、用法・用量を守って正しくお使いください」
全くもってその通り。誤った服薬は病状を悪化させるだけでなく、場合によっては想像以上の健康被害をもたらす可能性がある。それだけに、視覚障害者にとって薬の管理と服薬のコントロールは重要な問題の一つだし、細心の注意が求められる。
だが多くの場合、病院や薬局で渡される薬の説明は紙に印刷されたものだけ。これでは視覚障害者はお手上げだ。結局、ヘルパーや家族に手伝ってもらい、さまざまな工夫をしなければならない。いざという時、一人で対処できない視覚障害者も少なくないだろう。

米国ウォルマートと同社が展開する会員制スーパーマーケットSam's Clubは、印刷された文字を読むことが困難な顧客を対象に、視覚障害者向けの支援機器を製造・販売するEn-Vision America社と提携し、処方薬の情報を音声で確認できる機を提供している。2012年から一部の店舗で提供を開始しており、これを全米のどの店舗からでもオンデマンドで利用できるようになると言う。

これは「ScriptTalk」と呼ばれる電子タグシステムを用いたサービスで、薬局は処方薬の容器の底面に情報を書き込んだRFIDタグを貼付。顧客は無料で貸し出される、電池駆動の読み取り端末「ScriptTalk Station」を用いることで、電子タグに書き込まれた情報を音声で聞くことができる、という仕組みだ。この情報には薬の名前、服用量や服用タイミング、注意点、薬の補充情報、医師や薬局情報などが含まれる。

ScriptTalk Stationは3つのボタンと音量ツマミと言うシンプルなインターフェイスで、薬のボトルをのせるだけで情報を合成音声で読み上げるため、電子端末の操作に慣れない高齢者でも簡単に操作できるのが特徴だ。インターネット接続も不要でQRコードのように、コードが印刷されている場所を探す必要もない。
これまでも点字ラベルを貼付したり、スマホのアプリを用いて薬の管理を行う方法はあったが、点字が読めなかったり、スマートフォンが使えない視覚障害者も少なくない。専用端末を用いる音声サービスなら、多くの顧客をカバーできるだろう。
このサービスを利用すれば、目が見えなくても自分だけで服薬のコントロールが実現するはずだ。誰の手助けも借りずにできることが増えれば、自立した生活を送る自信にも繋がってくるに違いない。

このサービスは米国全域のウォルマートとSam's Clubの薬局で無料で利用できる。現時点でおよそ1,200の店舗でサービスを提供しており、まだ準備が整っていない店舗でも、利用希望を申し出れば1週間程度で利用できるようになるとのことだ。

電子タグを用いて視覚障害者をサポートする技術としては、「WayAround」や「ものタグ」などが実用化されているが、読み取り端末としてスマートフォンが必要となるため、使えるユーザーを制限してしまうのが難点。
「ScriptTalk」のように、ICTに不慣れなユーザーでも使えるソリューションがあれば、情報の提供だけでなく、ICTや点字のレクチャーなどにも応用できそうと思うのだけど、どうですかね。
電子タグとQRコード、バーコードが読める専用端末、誰か作ってくれないかなあ。いや、きっとどこかもう作ってるはず。ご連絡ください。

関連リンク:


2019年7月26日金曜日

視覚障害者の安全な歩行を支援する未来のデバイス「Sound of Vision」。

Sound of Vision(画像引用元

視覚障害者の単独移動において、まず優先されるべきは「安全」である。
現実世界には、看板や電信柱などの障害物はもちろん、段差や壁、工事中の道路やちょっとした窪み、さらには通行人まで、視覚障害者の安全を脅かすものが無数に存在している。場合によっては転落や交通事故など生命にも関わる自体にもなりかねない。

そこで視覚障害者は一般的に「白杖」を用いることで目の前の危険を探索して歩行する。街中で杖の先を左右に振りながら歩いている視覚障害者の姿を見かけたことがあるはずだ。晴眼者でも、暗い部屋の中では手で安全を確かめながら歩くことがあるだろう。白杖はいわば杖を用いて、一歩先を「手探り」しながら移動しているようなものだ。

ただ白杖でキャッチできる危険には限界がある。
そもそも杖が届く距離の範囲内でしか障害物を見つけられないし、せり出した樹木や看板など上半身に迫る物体は認識できない。歩きスマホしている歩行者など移動している障害物(とあえて言う)も白杖で避けられる可能性はそう高くはない。

そのような問題を解決すべく、テクノロジーによって視覚障害者の安全を確保しようとする様々なデバイスが開発されてきた。例えば「パームソナー」は超音波を用いて障害物や通過できる隙間を見つけることができるし、「Wewalk」のようなスマート白杖も、杖で地面を探索しながら上半身に迫り来る危険を知らせてくれる。
これらのデバイスは従来の白杖では見つけられなかった危険を察知する可能性を高めてくれるが、超音波を用いるため、誤認識や識別できないものも多く、あくまでも白杖の補助的な位置付けにとどまっている。
今の所、白杖と歩行訓練が最強だし、これはおそらく今後も代わりないだろう。だが、テクノロジーによる安全性の向上には、まだ進化の余地があるはずだ。

現在ルーマニア、ブカレストのPOLITEHNICA大学の研究者を中心に、アイスランド、ハンガリー、イタリア、ポーランドの大学や研究機関、当事者団体の共同プロジェクトとして開発されているウェアラブルデバイス「Sound of Vision」は、新たなアプローチで視覚障害者の安全を高めようとしている。
これは従来の超音波の代わりにコンピュータービジョンを用いるのが特徴だ。

Sound of Visionには3Dカメラが搭載されており、毎秒20フレームで周囲の環境をリアルタイムにスキャンする。スキャンされた画像はコンピュータービジョン・アルゴリズムにより解析され、周囲の物体を分析、その結果をもとに生成された立体音響と、ベルトに仕込まれた振動ユニットを通じて視覚障害者へフィードバックされる仕組みだ。
音響や振動の強さは、検知された物体との距離に応じて変化するため、物体の位置関係を把握するヒントになるという。現在、扉や階段、通行人といった主要な物体を認識することが可能なようだ。

さらに、Sound of Visionでは周囲に存在する文字情報を読み取り、音声で読み上げることもできるという。ボタンを押せば、標識や看板に書かれている情報をスキャンし、書かれている場所から擬似的に音声が聞こえてくるイメージだ。お店やレストラン、駅の入り口などを見つける時などで役立つだろう。
こうしてみると、このデバイスは単純に障害物を検知すると言うよりも、視覚障害者の空間認知を拡張してくれる可能性を持っているのかもしれない。

このデバイスはまだプロトタイプの段階で、今後2年ほどの期間をかけデバイスの小型化や屋外での物体認識性能の向上などの改良が施されるという。ユーザーの手に届くまでにはもう少し時間がかかりそうだが、開発者たちはこのデバイスをできるだけ入手しやすい価格で提供したいと考えている。またハードウェア、ソフトウェアと合わせ、このデバイスを安全に使いこなすためのトレーニングプログラムの開発にも力を入れているようだ。デバイスから発せられる3D音響と現実世界の地形を脳内で変換できるようになれば、もしかしたら白杖をズリズリ使わなくても、晴眼者と同じようにスムーズに歩行できる未来がやって来るのかもしれない。そんな妄想を掻き立ててくれるデバイスだ。

関連リンク:


2019年7月15日月曜日

[粗訳] 脳インプラントとスマートグラスで全盲者に「視覚」を与える「Orion」。


全く視力がない全盲の人々に、視力を与える技術的アプローチとして長年研究されてきたのが、インプラント手術を用いた人工視覚デバイス。これまで人工視覚といえば、眼球内部の網膜や視細胞、視神経に電極を取り付けるタイプのものがよく知られているが、最近米国で臨床試験が始まった人工視覚「Orion」は、カメラで撮影した映像を一気に「脳」に送り込む仕組みのようだ。この技術で、いったいどのような風景を見ることができるのだろうか?

※このエントリーは「Orion turns on a light in the dark for the blind」をあっさり翻訳したものです。

「Orion」は盲人の暗闇にささやかな明かりを灯す。

By Graciela Gutierrez

ベイラー医科大学の一角にある暗い部屋。
そこで被験者はブラックアウトしたコンピューター画面を見ている。そして間隔を置いて画面上の異なる場所に表示される白い正方形を指さす。
彼らは、もう何年も前から完全に目が見えなくなっているにもかかわらず、ほとんどの実験でその正方形を正しく指し示すことに成功した。

「視覚皮質補綴物」は、視覚障害者に人工的な視覚をもたらす。
手術で脳に埋め込んだ 「Orion」 と呼ばれる視覚皮質の人工器官を用いることで、眼の障害により視力を失っていても「見る」ことができるという。
OrionはSecond Sight Medical Products(カリフォルニア州ロサンゼルス)とのコラボレーションの一環として、ベイラー大学において臨床試験が行われている。
10年以上にもわたって、同大学の神経外科学の教授を務めるダニエル・ヨソール博士は、神経科学者で脳神経外科学の助教授ウィリアム・ボスキング博士、および神経外科学の教授マイケル・ボーチャンプ博士とともに、視覚皮質補綴装置を使用した研究に取り組んできた。
簡単に言えば、Orionは、デバイスの一部であるカメラで捉えた視覚情報を、損傷により機能していない視神経をバイパスして直接脳に伝送しているのだ。

「私たちは長年、脳が視覚情報をどのようにコード化するかを研究してきました。視覚というと目を思い浮かべますが、処理のほとんどは脳で行われています。網膜に投射された光のインパルスは神経信号に変換され、視神経を通って脳の一部に伝達されます。」
、ベイラー聖路加医療センターの脳神経外科部長でもあるヨソル氏は語る。
「将来的には、脳が視覚情報をどのように処理しているかを解明し、視覚補綴装置の開発によって視覚障害者に、実用的な視力を回復させたいと考えています。」

・「再び見る」ための第一歩

カリフォルニア大学ロサンゼルス校では、セカンド・サイト社と共同で、米食品医薬品局(FDA)が承認した初の視覚皮質補綴物の臨床試験を行なっている。
視覚皮質補綴物のアイデアは何年も前から存在していたが、技術がようやく進歩し、この臨床試験が現実のものとなった。
Orionは、60個の電極を埋め込んだ脳インプラント装置で構成されており、脳の視覚部分に刺激パターンを送ることができる。
中途失明者の多くは、視覚を処理する脳に損傷を受けておらず、眼から情報が伝達されていないため、その部分は活用されていない。Orionは、メガネに取り付けたカメラを使って画像を撮影し、対応する視覚画像を感じ取れるように設計された刺激パターンとして脳に直接伝送する。

ヨソール氏によると、人間の脳には明確な視野マップがあるという。
視覚世界のすべての部分には、その空間的位置を表す脳内の対応する点がある。研究者たちの間では何年も前から、脳の特定の場所を刺激すると、特定の視覚スポットに光が発生することが知られていた。これは目が見える、見えないに関わらず発生する。

「理論的には、脳に何十万もの電極があれば、豊かな視覚イメージを作り出すことができます。点描を使用した絵画を想像してみてください。点描では、何千もの小さな点が集まって完全なイメージを作成します。」
と、Yoshor氏は言う。
「脳の後頭部にある何千もの点を刺激することで、同じことができるかもしれません。」

そのためのステップとして、まず各視覚スポットをマッピングする必要がある。これがベイラーの暗い部屋で行われていることだ。
盲目の被験者はすでに「Second Sight」を使っている。

・最初の被験者

若くして視力を失い、人生の大半を暗闇の中で過ごしてきたベンジャミン・スペンサー氏は、メガネを装着して窓や戸口に近づくと、それを判別できた。
10年近く目が見えない状態が続いているポール・フィリップ氏は、妻と夕方の散歩に行くときにメガネを装着すると、歩道と芝生が交わる場所がわかると話す。また彼は、自宅の白いソファがどこにあるかを知ることができるという。

「これは初期の実行可能性調査です。
初期臨床安全性とデバイス機能性に関するデバイス設計概念を評価しています。」
とボスキング氏。
「これまでのところ、結果は有望です。被験者は、特定の物体がどこに位置しているかを識別できたと述べていますが、現時点では、物体の形や輪郭がはっきり見えているわけではなく、オブジェクトの位置に対応する少数のライトポイントが分かるだけです。」
たとえば、物体が自分の視界にあることはわかっても、その物体がマグカップなのかボールなのかはわからない、とボスキング氏は言う。

「現在ベイラー大学の研究室で行われているのは、装置と脳の間の最適なインターフェースを改善することです」
とボスキング氏。
「これにより、参加者がフォームや形状を確認できるように、デバイスに変更を加えることができます。」

「私たちが達成しようとしている目標には、まだほど遠いのです」
とヨソル氏は言う。
「現在、われわれは「動的刺激」と呼ばれる技術を使用しています。この技術では、埋め込まれた電極のアレイを横切るパターンで脳を刺激します。脳は変化を検出するのが非常に得意なので時間をかけてパターンを変化させるとより豊かな視覚体験と視覚機能の有用な回復が得られます。光の塊だけでなく形の知覚、そして最終的には鮮明な画像が得られるでしょう。」

視覚皮質補綴装置は、生まれつき視力をもっていて、その後視力を失った人にのみ有用という。先天的に盲目の人は、視覚を支える脳の部分が十分に発達しておらず、視覚情報を効果的に脳に伝えることができない。したがって、視覚皮質補綴装置は、中途失明者の使用を前提に設計されている。

ヨソル氏は言う。
「中途失明者の場合、脳の視覚機能はまだ無傷で機能しています。しかし目からは、視覚を司るニューロンを活性化させるための入力は得られません。現在はこれらのニューロンを直接活性化できる可能性が出てきました。
今、神経科学と神経技術の分野はエキサイティングな時代を迎えています。私が生きているうちに、目の不自由な人が機能的な視力を回復できるのではないかと感じています」
スペンサー氏もフィリップ氏も、この研究に参加したことを「エキサイティング」と表現している。

被験者の一人、フィリップ氏は、こう付け加えた。、
「たとえ今は、それがわずかな光の点だけであっても、

このめで何かを見られるのは、本当に素晴らしいことです」

2019年7月14日日曜日

[粗訳] なぜ「アクセシビリティ・バイアス」は無視され続けているのか?


※本エントリーは「Why Do We Fix AI Bias But Ignore Accessibility Bias?」を雑に翻訳したものです。

なぜ[AIバイアス」は修正されるのに「アクセシビリティバイアス」は無視されているのか?

By Kalev Leetaru

シリコンバレーは、いま人工知能のバイアスへの対処に夢中だ。
ディープラーニングのアルゴリズムが研究室を飛び出して現実世界に進出するにつれ、限られた西洋の訓練データがグローバル化されたデジタル世界と衝突し、ディープラーニングの生得的なバイアスの影響に対する認識が高まってきた。懐疑的になりつつある一般の人々、容赦ない報道、そして高まる政治家の関心に直面して、ディープラーニングコミュニティはそのようなバイアスにどう対処するかにフォーカスし、一連の投資とイニシアティブで対応してきた。
このようなデジタルの変化は、ますますアクセスしにくくなっているウェブをもたらし、これまで以上に障害者との間に大きなデジタルデバイドを生み出し、世界を手の届かない場所にしている。
人工知能のバイアスに対抗するため膨大なリソースが投入されているのとはまったく対照的に、アクセシビリティバイアスはほとんど注目されていない。一般に最も目に見えるバイアスだけが注目されているのだ。

かつてAIバイアスは主にアカデミックな世界の領域であり、逸話的に評価され、主流のディープラーニングのコミュニティからはほとんど関心を持たれず、主に学術的な追求として傍観的に議論されてきた。
ディープラーニングが現実の世界に進出するにつれて、これらのバイアスの意味が一般の目に明らかになってきた。特に,現代のディープラーニング時代を構築するために用いられる訓練データセットの極端なバイアスは、無数の人口統計学、文化および地理学を積極的かつ厳しく「差別するAI」という形で現れている。一般市民、報道関係者、政治家からの圧力が高まる中、シリコンバレーは人工知能のバイアスを理解し対処することに多額の投資をしてきた。
かつてないことに、現在ディープラーニングに取り組んでいるほとんどすべての大手企業は、AIアルゴリズムのバイアスを評価し軽減するために、少なくとも何らかの正式な評価プロセスを持っている。AIバイアスを主題としたカンファレンスも開催されており、ごくありふれたディープラーニングの研究論文でさえ、方法論のセクションでバイアスの問題に言及することが多くなっている。
メジャーなディープラーニング開発フレームワークでも、統合されたバイアス軽減ワークフローをリリースし始めている。これにより、開発者がバイアスを最小限に抑えるためのベストプラクティス、トレーニングデータの自動バイアス評価から、無害な変数が人種や性別などの制限された変数と予期せずに関連付けられるなどの差別的な相関を識別できる。

しかし、このようなAIバイアスへの関心と投資への高まりに対し、アクセシビリティバイ
アスへの関心と投資はほとんど見られない。
テキストのページが高解像度のリッチな画像やビデオに置き換えられるなど、Webが視覚化されるにつれて、スクリーンリーダーなどのアクセシビリティソフトウェアに依存する障害者がWebにアクセスできなくなっている。感動的な内容のテキストによるツイートは、誰にでもアクセスできる。だが「6人、立っている人」とキャプションされただけの感動的な写真は、スクリーンリーダーに依存している人々にとっては全く意味をなさない。結果、彼らはそこから取り残されてしまう。

ソーシャルメディアに対し、米国政府は、Web時代のようにアクセシビリティを義務化するのではなく、以前は神聖視されていた政府刊行物へのアクセス要件を放棄し、障害者が将来のデジタル政府を利用できない可能性を受け入れて、アクセシビリティを後退させた。
不思議なことに、AIバイアスを国際的な議論の話題に高めた政治家、企業、財団、思想的指導者たちは、アクセシビリティバイアスにはほとんど関心がないようだ。人工知能のバイアスを緩和する新しい法律を提唱している個人や組織は、なぜ同時にアクセシビリティ・バイアスに対処する既存の法律の施行に反対しているのか?そう問われても、彼らは沈黙を守っている。
AIバイアスに多大な関心とリソースを注いでいる財団、出版物、思想的リーダーは、アクセシビリティバイアスに関して言えば、言葉と資金を見失っているようだ。

AIバイアスとアクセシビリティバイアスの間の関心におけるこの明らかな違いは、残念ながらほぼ予想の範囲内である。
シリコンバレーがAIバイアスに関心を持ったのは、それ自体が意図したものではなかった。むしろ、現在の投資は、相当な世論の圧力と政府の介入の脅威の増大によって実現している。
これとは対照的に、かつてアクセシビリティのために積極的に介入していた政府は、逆にソーシャルメディアに対しては後退し、デジタル時代の差別と戦うという議会の関心が薄れていく中で、社会全体での権利剥奪を喜んで受け入れるようになった。
これらを総合すると、シリコンバレーは人工知能への偏見と戦うことに多大な投資をしているが、アクセシビリティバイアスと戦うことにはほとんど関心も投資もなされていない。

残念なことに、こうしたサポートのレベルの違いは、単純な経済性と可視性に帰着する。
AIバイアスは誰にでも影響を与え、デジタル経済を動かす広告やオンラインショッピングのような経済プロセスに特別な影響を与える。最も重要なのは、しばしば人工知能のバイアスが、明らかな形で人々に直接見えていることだ。
対照的に,アクセシビリティバイアスが影響を与えるのは人口のごく一部だ。また、先日のFacebookの画像障害のような短い瞬間を除いて、一般の人が目にすることはほぼない。

Webがもっとアクセシブルになる希望はあるのだろうか?
議会でデジタル・バイアスを警告する最大勢力のいくつかは、それ自体がアクセシビリティ・バイアスの代表である。公式なコミュニケーションでは最もアクセスしにくいメディアに大きく依存し、多様な有権者へアクセシビリティ・オプションを提供することを拒否しているという事実がある。残念ながら、状況がすぐに良くなるという楽観的な余地はほとんどないだろう。

Webをアクセシブルにするための最大の希望は、おそらく経済にある。
簡単に言えば、Webがより視覚的になることで、ソーシャルランドスケープを調節し、操作し、マイニングし、収益化するコンテンツ理解アルゴリズムに関わる多くの人々は失敗している。自分たちのマネタイズのニーズに対応したイメージマイニングアルゴリズムの開発を急いでいる彼らにとって、「副産物としてのアクセシブルなWeb」はありうるかもしれない。

現在の収益化されたWebでは、最も目に見えて経済的に影響力のあるバイアスだけが対処される可能性がある。結局のところ、AIバイアスとアクセシビリティバイアスにおける私たちの関心の間の明らかな違いは、その事実をあらためて認識させてくれる。

2019年7月12日金曜日

[iPhoneアプリ]「LetSeeApp」のカード識別機能を試してみた。


以前、ほぼ全盲の筆者がいかにしてカードを判別するか?というテーマでエントリーした。その中で、カードを識別できるアプリがあればいいのにね、と書いたのだが、まさにそのようなアプリを発見したのでご紹介しよう。

「LetSeeApp」は、コンピュータービジョンを応用して視覚障害者の「目」の代わりをするiPhone用アプリ。視覚障害者が見ることができないものをスマートフォンのカメラとAIを用いて認識し、音声で教えてくれる。同様のアプリとしては「Seeing AI」や「Envision AI」などがある。

■iPhone用アプリ
開発/Jedlik Innovacio Korlatolt Felelossegu Tarsasag
価格/無料(App内課金あり)

現在LetSeeAppが搭載している機能は「紙幣の識別」、「光の識別」、そして「カードの識別」の3種類。このうち紙幣の識別は日本円には非対応(現在対応しているのは米ドル、ユーロ、中国人民元、ハンガリーフォリント、韓国ウォン)で、光の識別もサウンドのみとシンプル。この2つの機能については「NantMobile マネーリーダー」や「Boop Light Detector」などを使う方が幸せになれる気がする。

LetSeeAppの白眉はやはり「カードの認識」機能だろう。
このカード識別機能は、あらかじめ識別したいカードを名前をつけてデータベースに登録しておき、カメラで撮影したカードをAI画像認識で識別してその名前を音声で読み上げてくれる仕組み。
このアプリの特徴は、登録から識別まで、すべてオフラインで動作するという点。クレジットカードを始めカード情報は重要な個人情報であるため、この特徴は重要な意味を持つ。


カードの登録から認識までの基本操作。


ではさっそく、LetSeeAppを使ってカードの判別を試してみる。
LetSeeAppを起動して画面を2本指ダブルタップすると設定画面が開く。「CARD RECOGNIZER」の項目が、カード認識関連の設定だ。
※本記事での操作方法は、基本Voiceoverをオンにした状態のものです。

まずは認識させるカードを登録する。
無料版で登録できるカードは5枚まで。App内課金すれば(120円)25枚まで登録可能になる。

  1. 「Register new card」を操作。
  2. 「Name」にカードの名称を入力。音声が日本語の読み上げに対応していないため、必ず半角英数で入力する。
  3. 「Take a Picture」ボタンを操作し、iPhoneをカードにかざせば自動的に輪郭を認識して写真を撮影し、カードが登録される。

登録したカードの管理は「Manage cards」で行う。ここでは登録したカードの認識を一時的に無効化したり、登録したカードの削除や一括クリア処理が行える。

  1. 「Manage cards」ボタンを操作。
  2. 「CARDS RECORDED」に登録済みのカードがリストアップされる。それぞれのカードを操作すると、そのカードの認識をオン/オフできる。
  3. またローターのカスタムアクション(上下スワイプ)からそのカードの削除が行える。
  4. 「Wipe card database」ボタンを操作すれば、登録したカードを一括削除できる。

設定画面を閉じてLetSeeAppのメイン画面に戻ったら、画面を左右にスワイプ。「CARD RECOGNIZER」と読み上げられたらダブルタップしてカード認識モードを起動する。うまくモードが切り替わら無い場合は一度Voiceoverをオフにして試してみよう。
そして認識させたいカードにiPhoneをかざすと、登録したカード名称がリアルタイムに読み上げられる、はず。


使いこなすにはちょっとコツが必要?


手持ちのカードをいくつか試したところ、クレジットカードやキャッシュカードはもちろん、ポイントカードも登録できた。おそらく長方形であれば、カードの輪郭を認識して登録してくれるようだ。ただ現時点ではカードの裏表をセットにして登録することはできない(それっぽい項目は用意されているようだがまだ機能しない)。
また試しに機内モードをオンにした状態でカードの登録から認識まで実行したところ、問題なく動作した。セキュリティ的に完全に安全かどうかは断言できないが、少なくともオフラインで使えることは確認できた。

さて肝心の認識精度だが、結構微妙といった印象。
うまく認識できるかどうかは、カードを登録する時の画質に大きく左右されている感じのようだ。登録時の撮影がオートなので、照明などを事前に確認しておいた方が良いかもしれない。
また登録したカードによっては手で持っているとダメだったり、上下逆さまだと認識できない、といった現象も見られた。またカードを認識させる時も、カードからiPhoneをゆっくり離したり左右に動かす、傾けるなどの工夫をすることで認識される場合もある。
スムーズに利用するためには、カードを登録・認識する時のコツを掴む必要があるかもしれない。

色々文句っぽいことも書いたが、条件さえ揃えば、間違えることもなくカードを判別できる。日常的にサッと取り出して識別するには厳しいかもしれ無いが、自宅などでゆっくりカードを分別する時など、このアプリを使えばクラウド型OCRアプリを用いるより安全にカードの判別ができるようになると感じた。

視覚障害者を支援するアプリは数多くリリースされているが、どうしても機能優先でユーザーのセキュリティやプライバシーの問題は軽視される傾向にあるように思う。そのような意味でも、LetSeeAppは(完全に安全かはわからないが)比較的安心して使えそうなアプリかもしれない。
今後も機能の強化などが予告されており、アップデートに期待したい。

関連リンク:


2019年7月9日火曜日

[iOSアプリ] Seeing AI 3.1リリース。


Microsoftが開発する視覚障害者向けのAIを用いた画像解析アプリ「Seeing AI」がバージョン3.1にアップデートされた。前回は写真をタッチして探索できる「Explore」やユニバーサルアプリ化など大きな変更が行われたが、今回は細かい機能がいくつか追加されている。

Version 3.1の新機能と変更点:

  • バッテリー節約機能を追加。しばらくの間、何もオブジェクトが見つからないと認識処理が停止してバッテリーの消費を抑える。端末を動かすと認識処理が再開される。
  • ドキュメントチャネルにおけるカメラの視野角が広くなり、端末とドキュメント間の距離が短くてもスキャンできるようになった。これはGiraffe Readerなど市販のスタンドでSeeing AIが機能することを意味する。
  • さらに、いくつかのバグ修正と内部的な改善を行った。

とのこと。
筆者の環境で気がついたのは、インターフェイスの読み上げがVoiceoverのスピーチ設定の「英語」で指定した声で読み上げられるようになっている(これまでは読み上げスピーチ設定が日本語であれば、そのまま日本語の音声で読み上げられていた)。
なおドキュメントチャネルで認識された日本語のテキストは、従来通り日本語の音声で読み上げられる。

■iPhone/iPad用アプリ

開発/Microsoft Corporation 価格/無料

2019年7月7日日曜日

[粗訳] ソーシャルメディアのアクセシビリティの貧弱さを、Facebookの障害が思い出させた。


※先日こんなエントリーを書いたらその直後に「Facebook's Image Outage Reminds Us How Bad Social Media Accessibility Really Is」という記事が入ってきましたので、ザックり翻訳しました。

[粗訳] ソーシャルメディアのアクセシビリティの貧弱さを、Facebookの障害が思い出させた。

By Kalev Leetaru

今週、Facebookが画像に関する障害を起こしたことで、現代のビジュアル至上主義のソーシャルウェブにおけるアクセシビリティの問題が明らかにされた。現在のほとんどの主要なソーシャルメディアプラットフォームでは、ユーザーが画像やビデオの代替テキストを加える機能が提供されているが、画像にアクセシブルなテキスト記述を書くために時間を費やすユーザーはほとんどいない。代わりに、ソーシャル・プラットフォーム上の多くの代替テキストは、画像から抽出された一般的なトピックやアクティビティのタグが含まれたデータセットをもとにディープ・ラーニング・アルゴリズムによって自動的に生成されている。現在これらのラベルの品質は非常に貧弱だが、政府のWebコンテンツに厳しいアクセシビリティ基準を長年適用してきた米国政府でさえ、ソーシャル・コンテンツについてはアクセシビリティを求めてい無い。政府や技術コミュニティはAIバイアスに多大な投資をしている一方、アクセシビリティバイアスにはほとんど興味を示さ無い。障害者は、このままWebの未来から取り残されてしまうのだろうか。

今週、FacebookとInstagramのユーザーは、自分の画像が表示されるべき部分に、Facebookのアルゴリズムがその画像をどのように解釈したかを示す恐ろしくひどい説明的な代替テキストを目にした。
悲しいことに、これは視覚に障害を持つ人々が毎日経験している世界だ。

テキストだけが頼りのスクリーンリーダーを使用してWebにアクセスする場合は、ALTタグによって提供される画像の説明テキスト記述(代替テキスト)に依存しなければならない。
残念なことに、FacebookやInstagramのユーザーの中に、自分の画像にこのような説明をわざわざ入力する人はほとんどいないだろう。どちらのサイトでも、障害者のために、スクリーンリーダーが読む各画像のテキスト説明を入力することが可能になっているが、実際に入力するユーザーはほとんどいない。アクセシビリティと橋渡しの分野でキャリアを積んできた政策立案者でさえ、自らの実績の拡散を追い求めるのに忙しいらしく、スクリーンリーダーを利用している有権者のために、自分のソーシャルメディアのストリームをアクセス可能にすることに無頓着だ。実際、政府は彼らにそのような配慮を求めてはいない。

その代わり、最近のソーシャルメディア上の代替テキストの大部分は、画像に含まれている共通のオブジェクトやアクティビティを解析したメタデータタグを生成する、ディープラーニングのアルゴリズムによって自動的に生成されている。認識されるのは、モデルがすでにトレーニングされている物体のみだ。

だがその精度は極めて悪い。商用の世界で使用されている最先端の画像認識技術とは異なり、現時点でソーシャルメディアサイトによって展開されているモデルは、表現の豊かさや正確さよりも、処理速度を優先して最適化されているようだ。

しかし、大多数のWebユーザーは、このエラーを見ることはない。一般的なソーシャルメディアユーザーは、ウェブの代替テキストを見ることなく、現代の高解像度画像の美しく鮮やかな世界にうっとり気分だ。

今週初めに起きた障害で、ジャーナリストや専門家はALTタグの実際の貧弱さに初めて気がつき、その結果かなりのメディア報道につながった。
しかし残念なことに、これらの記事のほとんどは今回のトラブルを嘆き、特に貧弱なALTタグについて冗談を言い、ほとんどのユーザーが代替テキストに頼る必要がないことに胸をなで下ろしている。

だがしかし、スクリーンリーダーに依存している人にとって、これらのタグはウェブの画像を見るための方法である。
彼らにとって、一連のALTタグのひどい品質はジョークではない。ますます進むソーシャルプラットホームのビジュアル化は、彼らの能力を大きく制限している。

これらを総合すると、社会全体がAIバイアスに注目する中、アクセシビリティバイアスにはほとんど注意が払われていない。誰もが感じているアルゴリズム的バイアスの影響とは異なり、アクセシビリティバイアスは平均的なWebユーザーには見えない。最も簡単な修正方法は、ユーザーが投稿する画像の説明を入力することだが、受け入れるユーザーはほとんどいないように見え、そこにインターフェイスの摩擦が発生する。
Webがますます視覚的になる代わりに、社会の一部を置き去りにして、デジタル世界から遠ざけてしまっている。

長い間デジタルアクセシビリティを提唱し、歴史的に公式の政府出版物を異なる物理的な出版物にアクセスすることを義務付けていた米国政府でさえ、ソーシャルメディア時代においてアクセシビリティを重要視しているとはもはや思えない。議会が政策発表を行い、党派と連絡を取るためにアクセスできないソーシャルメディアプラットフォームにますます頼るにつれて、障害を持つ者は、民主的プロセスからますます切り離されつつある 
政府のリーダーシップが欠如している中で、何がアクセシビリティの潮流を変えるかは、まだわからない。可能性の一つとして、アルゴリズムを訓練するために絶えず手作業による画像説明文を必要としている企業のために、ユーザーに画像の代替テキスト入力を促すという方法が考えられる。

結局のところ、ウェブがより視覚的になっていくにつれて、ウェブはより差別的にな理つつある。


2019年7月4日木曜日

[雑感] Facebookの障害騒ぎと代替テキストについて、ふんわり思う。


米国現地時間2019年7月3日、Facebookとその傘下サービスであるInstagram、、WhatsAppで世界規模のシステム障害が発生した。障害が報告されてからおよそ9時間後に復旧し、現在は正常に戻っている。この障害ではアプリが起動しなかったり、写真や動画のアップロードができ無い、投稿された写真や動画がみられ無いといった状態が続いた。特に写真による情報がメインのInstagramは使い物にならないということで世界中のユーザーから阿鼻叫喚の声が続々とTwitterに寄せられたという。特に北米、南米、ヨーロッパのユーザーへの影響が大きかったようだ。


今回の障害で、非常に興味深い現象が見られた。
障害発生中にFacebookやInstagramのタイムラインを閲覧しようとしたユーザーは、写真や動画のサムネイル画像の代わりに、壊れたアイコンとともに奇妙な文字列を見ることになった。拙ブログをご覧の方ならお分かりと思うが、これはFacebookがAI画像認識を用いてタグつけした「自動代替テキスト」である。この代替テキストはスクリーンリーダーを用いなければ基本的に目にすることはなく、今回画像がローディングされないというトラブルによって、一般のユーザーの目に止まることとなった。反応を見る限り、おそらくこれを見たユーザーの多くは、この自動代替テキストを初めて知ったと想像される。

写真をAIで解析し、何が写っているのかをテキストとしてアウトプットする技術は、目で写真を確認でき無い視覚障害者向けの支援技術としてFacebookを始め、MicrosoftやGoogle、Apple、IBMなどのハイテク大手が現在も開発を進めている。だが、現状では必ずしも写真を的確に説明できるまでの精度には達してい無い。顔認識技術は比較的進歩しているが、オブジェクト認識に関してはまだまだざっくりとした情報しか返してくれない状態だし、間違いも多い。だがそのような情報でも、視覚障害者にとっては、これまで一切の情報を得られなかった写真を「見る」ことができる革命的な技術だ。

その現状を知ってか知らずか、今回のFacebook障害に直面したユーザーの一部が、自動代替テキストを揶揄するようなメッセージをTwitterに続々と投稿し始めた。まあ半分はなかなか障害に関する情報を公開しないFacebookへの当てつけが入っているのかもしれない。


中には、この自動代替テキストを「Facebookがターゲット広告に使っているのでは?」といったような論調で語る向きもあった。確かに知ら無い間に自分の写真が解析され、トンチンカンな代替テキストがつけられていたら、びっくりしてそのような気持ちになるのも理解できる。日頃のFacebookの行いを思い返せば致し方のないところかもしれ無い。

むろん写真の解析が何かしらのマーケティングに応用されるなど、プライバシーの問題を引き起こす可能性はゼロではないが、現状ではあくまでもアクセシビリティのための技術、というのが個人的な認識である。うーん、ちょっと自信なくなってきた。


一つ残念だったのが、結局この騒動で自動代替テキストが単なるネタ的な扱いしかされていなかったという点。いや、ネタにすること事態は何の問題もないし、むしろ面白いのでどんどん突っ込んで欲しいくらいなのだが。
ただ、この貧弱な代替テキストを知ることで、視覚障害者との「情報のギャップ」にも思いを馳せてくれるきっかけになってくれると良かったのに、とは思う。加えて手動で代替テキストを設定する方法の周知もネジ込めれば、ちょっとは世界がアクセシブルになったかもしれない。
むしろしばらく画像がローディングされない方が、少しは視覚障害者の気持ちがわかるのではないかな。なんてね。
でもまあ、プロのコンテンツ提供者ですら多くがまともな代替テキストを提供できていない状況で、ユーザーにそこまでのリテラシーを求めるのも現実的ではないのかもしれないね。

それにしても、もう導入から3年経過しているのに、Facebookの自動代替テキストがここまで認知されていなかった事実には、正直ガッカリしてしまった出来事でもあった。


2019年7月3日水曜日

視覚障害者の「電車でうっかり」をサポートする2つのアプリ。


英国ケント大学の学生が開発したiPhone用アプリ「Stay on Route」の記事を興味深く読んだ。これは、電車の乗り過ごしを防止するアプリで、視覚に障害を持つ開発者の友人が、電車を利用するたびに降りる駅を間違えないよう、常に緊張を強いられるという悩みが開発のきっかけという。なるほど、都市に暮らす視覚障害者にとって「電車の乗り過ごし」は万国共通の悩みのようだ。

もちろん、ほぼ全盲の筆者も同様だ。
晴眼の同行者がいたり駅員の補助をお願いしていれば問題はないが、単独で電車を利用する場合は、乗り過ごしとの戦いが始まる。障害があるなしに関わらず乗り過ごしはダメージが大きなトラブルだが、移動や情報が制限される障害者にとってはそのダメージの大きさは計り知れない。知らない駅に放り出されるなんて、想像するだけでゾッとしてしまう。
乗り過ごしを防ぐには、情報の確認が不可欠だ。目が見えれば車窓の風景や停車直前のホームにある駅名を確認したり車内の電光掲示板などから情報を得ることは容易だが、視覚障害者は車内アナウンスや停車駅の校内放送といった限られたタイミングでしか情報を得ることができない。うっかり眠ってしまったりスマホの音声に集中してしまうと、たちまち現在の状況を見失ってしまう。
だがこれをリカバリする手段は現状用意されておらず、そこで「Stay on Route」のようなアプリに注目が集まっているというわけだ。このアプリは日本国内では使えないが、似たようなアプリはいくつか存在する。
そこで筆者が試した範囲で、Voiceoverユーザーでも使えそうなアプリを2つほどご紹介しよう。


今どの辺走ってるの?「NAVITIME」で確認。


電車でついうっかりウトウトしてしまい、気がつくといま電車がどのあたりを走行しているかわからなくなる。恐怖の瞬間だ。
特に駅と駅の間が離れている路線や特急・急行電車だと、なかなか車内アナウンスもされず精神衛生上よろしくない。もし乗り過ごしたとしても、早めに情報を得ることで何かしらの対策を立てられるかもしれない(まあ、コの時点でかなり蒼ざめているのだが)。

スマートフォンで現在の位置情報を調べるには通常「マップ」や「Google Maps」のような地図アプリを用いるが、電車の走行位置を素早く調べるといった用途には情報が多すぎるため、向いていない。そこで使ったアプリが「NAVITIME」だ。
NAVITIMEは、公共交通機関の乗り換えや歩行ナビなどを行う総合的なナビゲーションアプリ。このアプリには現在地から最寄りの駅を検索する機能が用意されており、これを用いることで今乗っている電車が大体どのあたりを走行しているかを素早く知ることができる。

アプリを起動したら「地点検索」タブを開こう。ここに「周辺駅」という項目があり、ここに現在地から近い駅が距離とともにリストアップされている。この距離をしばらくVoiceoverで読み上げさせていると、電車の移動とともに距離が変化していくのがわかる。つまり、移動とともに距離が減っていく駅が、今乗っている電車が向かっている駅と判断できるわけだ。
ちなみに「乗換NAVITIME」でも「乗換案内」タブを開いて「駅/バス停を入力」をダブルタップすれば同様のことができる。

ただこの機能で表示している駅は現在地から直線距離をもとにスキャンしているため、近くの別路線の駅を同時に表示することも多い。またある程度駅の名称が頭に入ってい無いと意味がないので、事前に利用する路線に関する情報を覚えておく必要があるだろう。

開発/NAVITIME JAPAN CO.,LTD. 価格/無料(App内課金あり)


降車駅の到着を通知してくれる「ツクツク」。


さて、ウトウトして不安になる程度ならNAVITIMEで安心感を得られるが、最も恐ろしいのはガッツリ眠りこけてしまった時の乗り過ごしである
そこでご紹介するアプリが「ツクツク」。
降車駅に近づいた時に通知してくれるアプリだ。
乗り過ごし防止アプリには、到着時間を指定するタイプのものと、位置情報を用いるタイプのものがあるが「ツクツク」は後者の位置情報を利用するアプリ。「NAVITIME」にもアラート機能はあるが、「ツクツク」は通知したい駅を登録するだけで、あとは自動的に通知してくれるシンプルな操作性が特徴。Apple Watchやウィジェットにも対応している。もちろん、完全ではないがVoiceoverでも利用できる。なおApp内課金で登録する駅数制限解除と広告の削除が可能だ(各120円)。

アプリを最初に起動するとまず設定ウィザードが開く。ここで一箇所、Voiceoverでは設定内容を判別でき無い部分があるが、ここは後で設定できるので適当に選んで進めればOK。ウィザードでの設定が終わりメイン画面が表示されたら、まず「Settings」ボタンを操作して通知の設定を確認・変更する。筆者が変更した設定は以下の通り。

  • 通知回数:20回に設定(デフォルトでは50回)。
  • 通知間隔:2秒に設定(デフォルト)。
  • 追跡設定:バッテリー節約に設定。
  • 音声案内:有効にして「イヤホンのみ」に設定。

なおアプリ上でも説明されているが「追跡設定」は「位置情報追跡」の方が精度が高いが、反面バッテリーの消費が大きいため、バッテリー節約設定でうまく動作しない場合に試してみよう。
設定が終わったら「追加」ボタンを操作して通知させる駅を登録する。無料版で登録できるのは2駅まで。

  1. 駅名を検索してダブルタップして選択肢「次へ」をタップ。
  2. 通知する距離(目的の駅にどれだけ近づいたら通知するか)を指定する。500m、1Km、3Km、5Km、10Kmから選んで「保存」をタップ。
  3. トップ画面に登録した駅と現在地からの距離が表示される。

これで準備は完了。電車に乗車したら、登録した駅リストから通知したい駅のスイッチを「オン」にすれば、電車が目的の駅に設定した距離内に入ったタイミングで通知される。音声を有効にしている場合は、通知と同時に「まもなくXX駅に到着します」とアナウンスされる。通知を止めるには、通知を消去すればOK。

筆者は小田急線の急行で新宿までの往復を移動しながらアプリを試してみた。通知する距離は「1Km」で設定下が、停車駅へ向かって減速するくらいのタイミングできちんと通知された。ただ路線の環境によっては精度にばらつきがあるらしいので、とりあえず普段利用している路線で試した方が良いかもしれない。Wi-Fiをオンにしておくと測位精度が向上するとのことだ。

このアプリの良さは、何と言っても、到着のアナウンスをBluetoothヘッドセットできけるという点だろう。iPhoneをサイレントに設定しているとバイブレーション頼みなので、個人的には結構見過ごしやす買ったりする。筆者は大体電車内ではヘッドセットを使っているので、通知がダイレクトで伝わってくるし、さらに骨伝導ヘッドセットだと頭部に心地よい振動が加わるので寝ていても(たぶん)気がつくのではないだろうか。

開発/Yoshihiko Eto 価格/無料(App内課金あり)


頼り切るにはリスクはあるけど、備えあれば、ということで。


ここで紹介したアプリはいずれも位置情報サービスを用いるため、トンネルや地下鉄など位置情報の取得が難しい場合は使え無いかもしれ無い。今度地下鉄でテストしてみようとは思う。
また位置情報サービス、特にGPSを用いる場合にきになるのがバッテリーの消費量。今回試したケースでは、iPhoneをフル充電して出かけ、やく1時間後に目的地に到着した時点でバッテリー残量は80%くらいに減少していた。長時間の移動で利用する場合、やはりモバイルバッテリーなどの準備が必要かもしれ無い。

今回筆者が試した範囲では動作は良好で実用的なアプリと思えたが、利用する環境や時間帯などによってうまく動作し無い可能性も十分に考えられる。あまり頼りすぎるのもリスキーかもしれ無い。
ただうっかり電車で寝てしまったといった不測の事態に備えるための「おまもり」として準備しておくだけでも安心感はあるのではないだろうか。
まあ、電車では寝無い、これに尽きるかな……。


※この記事のアプリはiOS 12.3.1のiPhone 7でテストしました。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...