2019年2月20日水曜日

ネット通販のアクセシビリティ、特に写真についての雑感。Alibabaの自動代替テキストの話題とともに。


見えない・見えにくい人々にとって「買い物」は非常に難易度の高いクエストだ。
お店へ移動する。商品を探す。決済する。
どのプロセスも高いスキルを要しリスクが伴う。
そのような意味において「ネット通販」は視覚障害者にとって、なくてはならないサービスのひとつだ。

視覚障害者がネット通販を利用する場合、多くはスクリーンリーダーを利用してアクセスすることになるが、そこで問題になってくるのがECサイトにおけるWebアクセシビリティ。米国ではada法に基づいてアクセシブルでないWebを公開している企業や組織が訴えられまくっているが、その中にはECサイトが多く含まれている。障害者がアクセスできないECサイトは、バリアフリー化されていないリアル店舗と同じ、という考えに基づく動きだ。
そんなこんなでECサイトにとってアクセシビリティは重要、という意識が浸透しつつある。これは視覚障害者の「買い物をする権利」を守るということでもある。

Alibaba傘下で中国最大のECサイト「淘宝網(タオバオワン)」は2018年10月、視覚障害者のショッピング体験をより快適にする技術を導入した。

淘宝網では、日々膨大な出店者から大量の商品が掲載されているが、その画像の多くには代替テキストが用意されていなかった。さらに多くの商品ページで重要な情報が画像内にテキストを埋め込む形で提供されていたという。
そこで淘宝網はアップロードされた画像からOCR(光学文字認識技術)を用いてテキストを自動的に抽出し、スクリーンリーダーユーザーがより簡単に商品情報へアクセスできる昨日を導入した。導入から2ヶ月後の段階で、1日あたり約1億もの画像が読み取られているという。
OCRによる文字認識は一部のスクリーンリーダーを使えばローカルで処理することもできるが、サイト側で処理することで手間も省け、スマートフォンなどOCRが利用できない環境でもスムーズに情報を入手できるようになる。
このような多くのコンテンツ提供者が関わる巨大サイトでは、アクセシビリティを徹底するのは非常に困難だ。それをプラットホームベースで一気に解決してしまおう、というわけだ。
同様の試みとしては、FacebookやInstagramが写真の自動代替テキスト機能を提供している。こちらはテキストではなく写真の解析を行う。
AIによる画像解析はまだ発展途上の技術だが、代替テキストが皆無という状態が解消されるだけでも大きな前進。このような動きは人力でアクセシビリティを確保するには限界があることの証なのかもしれない。

AlibabaはWebサービスのアクセシビリティ工場に力を入れており、スマートフォンに触覚ボタンを追加する安価なシリコンシート「Smart touch」の提供も予告されている。
それだけAlibabaは障害者を重要なマーケットとして認識しているということだろう。確かに全人口から見れば障害者は少数派ではあるが、バリアを除去することでその周辺を含めた潜在的な需要を掘り起こすことに繋がるのではないだろうか。まあ、中国は絶対数が多いということもあるのだろうけれど。

閑話休題。

全盲の筆者もたまにネット通販を利用しているが、画像から情報が得られないことで失敗したりストレスを感じることも多い。やはり一般的に「写真を見ればわかるでしょ?」という情報は文字情報として記載されない傾向にあるようだ。
特に商品のデザインに関する要素は漠然とした説明しか得られないことが多く、寸法や重量からイメージしたり、商品名でググって外観デザインに言及したレビューを探すなどするしかない。でもどんなに情報を集めてもこれじゃない感MAXな商品が届く悲劇が繰り返されてしまうのである。
先日もBluetoothイヤホンを購入したのだが、イメージよりだいぶゴツいものが届いてがっかりしてしまった。もちろんそんな理由で返品はできないし。
デザインだけでなく、ボタンの位置だとか素材の質感なども商品説明だけではわかりにくいポイント。安価な商品ならまだ諦めもつくが、ねが春物だとそうわいかない。結局Webで購入したい商品を下調べして、お店に行って実物に触れて……ということになる。そこで「ポチらなくて良かった!」と思うことも多い。実に危ない。

商品写真の代替テキスト、理想としてはこのような失敗がなくなるくらいの情報が欲しいところ。でもデザインを言語化するのは難しいのも理解できる。自分も欲しい商品のデザインを説明しろ、と言われても困るしね。

一般的なWeb画像と比較してECの商品画像は求められる情報量が圧倒的に多いし利用者の損得にも関わってくる。触図プリンターやディスプレイのような機器が入手しやすくなれば話は変わってくるだろうが、テキスト頼みの現時点ではこの溝を埋めるのはそう簡単ではなさそうだ。
視覚障害者が安心して買い物できるひはまだまだ遠い。

関連リンク:


2019年2月17日日曜日

視覚障害シミュレーターで、ロービジョンの「見えにくさ」を体験。


いまだに根強い「視覚障害者」=「全盲」というイメージ。
だが実際には視覚障害者の中でも全盲は少数派。多くは視力や視野に何かしらの障害を持つ「ロービジョン」と呼ばれる状態である。ロービジョンの「見えにくさ」は、眼鏡屋コンタクトレンズで矯正できる「見えにくさ」とは全く異なる質のものなので、なかなか理解されにくいのはある程度止むを得ないことかもしれない。
だがこの無理解さゆえ、ロービジョンを捕まえて「白杖もちなのに○○してた」という言説が絶えないという現実がある。そのような誤解を防ぐためにも「ロービジョンの見えにくさ」がいかに日常生活を困難にしているか、という情報を広めることが重要だろう。

今回紹介する「視覚障害シミュレーター」も、そのようなロービジョン周知に役立つツールになるかもしれない。


iPhoneのカメラを通して視覚障害者の見え方を体験


■iPhoneアプリ
開発/Aira Tech Corp. 価格/無料

Aira Vision Simは、iPhoneのカメラを通して視覚障害者の「見えにくさ」を体験できるアプリだ。現在14の眼疾患のビジョンをシミュレートする。開発したのは北米などで視覚障害者の遠隔サポートサービスを提供しているAIRA社。

アプリを起動して疾患名称をタップすると、カメラからの映像をリアルタイムで処理。その疾患で生じるビジョン(の一例)を再現する。スライダを調節して、見えにくさのレベルを変更することも可能だ。
例えば白内障の霞目、糖尿病性網膜症のランダムな視野欠損、緑内障の周辺視野欠損、黄斑変性症の中心視野欠損など、これだけでも一言で視覚障害といっても無数の「見えにくさ」が存在することがわかるだろう。もちろんこれらはほんのごく一部でしかない。
また「Ditail」をタップするとその疾患の情報(特徴や原因、患者数など)を知ることもできる。
シミュレートする眼疾患と再現内容は以下の通り。

  • Bardet Biedle Syndrome:バルデー・ビードル症候群(周辺視野の欠如)
  • Cataracts:白内障(かすみ眼)
  • Corneal Dystrophy:角膜ジストロフィー(かすみ眼)
  • Diabetic Retinopathy:糖尿病性網膜症(ランダムな視野欠損)
  • Glaucoma:緑内障(周辺視野の欠如)
  • Leber's Congenital Amaurosis(LCA):レーバー先天性黒内障)ぼやけた視力)
  • Leber Hereditary Optic Neuropathy (LHON):レーバー遺伝性視神経症(中枢性視力の喪失)
  • Macular Degeneration:黄斑変性症(中心視力の喪失)
  • Neuromyelitis Optica (Devic's Disease):視神経脊髄炎(デビック病)(中心視力の喪失)
  • Optic Nerve Hypoplasia:視神経低形成(ぼやけた視力)
  • Optic Neuritis (Neuropathy):視神経炎(ニューロパシー)(かすみ眼)
  • Retinal Detachment:網膜剥離(コーナービジョンの喪失、黒い点)
  • Retinitis Pigmentosa (RP):網膜色素変性症(周辺視野の欠如)
  • Stargardt Disease:シュタルガルト病(中心視力の欠如)

iPhoneのカメラを用いて実際の風景で見えにくさを体験できるのは、説得力がある。
普段歩いているルートや家の中がどのように見えるのかを体験すれば、視覚障害者がどのようなサポートを必要としているか、想像しやすくなるかもしれない。
もちろん同じ疾患でも別の見え方になるケースも多い。実際に筆者は緑内障だがまず中心視野から見えなくなっていった。あくまでも奨励の一つ、という前提をお忘れなく。


Webブラウザから体験できるロービジョン・シミュレーター


■Webアプリ

こちらはWebブラウザで視覚障害者の「見えにくさ」を体験できるシミュレーター。
「EXPLORE」をクリックするとシミュレーターが起動。眼疾患をクリックするとそれぞれの典型的なビジョンを再現する。このシミュレーターはVRビューが用意されており、ウィンドウをマウスでドラッグするか矢印キーで360度ビューを移動、クリックで見たいポイントを指定できる。
シミュレートする眼疾患は以下の通り。

  • GLAUCOMA:緑内障
  • CATARACT:白内障
  • DIABETIC RETINOPATHY PRESBYOPIA:糖尿病性網膜症
  • GLARE:眩輝(眩しさ)
  • MACULAR DEGENERATION:黄斑変性症
  • HEALTHY SIGHT:正常なビジョン

Aira Vision Simと比べるとシミュレートする疾患は少ないが、ブラウザから手軽に体験できるのが特徴と言える。


ロービジョンは世界をどのように見ているのか


これまで視覚障害者=全盲というイメージを持っていた方も、これらのシミュレーターを体験すれば、そのバリエーションが多岐に渡っていることに気がつくだろう。「見える」と「全く見えない」の間には、無限のグラデーションで「見えにくい」が存在しているのである。

もちろんこれらのシミュレーターで体験できる「見えにくさ」はほんの一部に過ぎないし、眼球使用困難症のように、たとえ視力や視野が正常でも、その感覚を使えない、もしくは使える時間が極端に短い症例もある。

そのような現実を踏まえつつ、このようなシミュレーターで視覚障害者が世界をどのように見ているのか、その一端を垣間見てもらえれば、少しは視覚障害者、とりわけロービジョンに対する理解も深まるのでは。そんな風に思うのだった。

2019年2月16日土曜日

目指すはAI伴走者!? 視覚障害者のランニング・ナビゲーション技術。


筆者が視覚に障害を持ってからはや数年。そういえば、走らなくなった。
まあそれ以前は走っていたのか?と言われると「否」ではあるのだが、それでも待ち合わせに遅れそうだったり電車の時間ギリギリだったりした時はしっかり走っていたように記憶している。
だが白杖使いにジョブチェンジした今、とても走るなんて無理無理。歩くだけでいっぱいいっぱいである。
かくして視覚障害者は運動不足に陥りがちだ。

米国アイオワ大学、コンピュータ・サイエンスの助教授Kyle Rector氏らによるチームは、Microsoftの「AI for accessibility」の助成を受け、視覚障害者が独立して陸上トラックをランニングするためのモバイルアプリベースのナビゲーションシステムを開発している。
視覚障害者を誘導するシステムの開発は盛んに行われているが、多くは屋内での歩行を前提にしている。このプロジェクトは屋外でのランニングを支援するという意味で興味深い。

「Wizard of Oz」と名付けられたこのプロジェクトでは、全長400メートルのオーバル型陸上トラックを舞台に、視覚障害者が単独かつ安全にランニングするためのナビゲーションシステムの構築を目指している。
オーバルトラックはコースが定型であること、ランナーが一方向に走ること、路面が平坦であることなど比較的安全性が確保しやすいことで研究対象として選ばれたようだ。

システムはAIによる画像認識を行うスマートフォンアプリを用いてトラック上のランニングレーンをリアルタイムに判別し、ランナーを音声もしくは振動フィードバックでナビゲーションする。実験では「1.音声による指示」「2.両手に装着したスマートウォッチの振動で通知」「3.骨伝導ヘッドホンの振動による通知」の3種類のフィードバック手段が用意され、それぞれの有用性が検証されている。

ランナーがコースから外れると、音声で正しい方向を指示もしくは外れた側のデバイスが振動する。フィードバックを受け取ったランナーはそれに従い進路を調節する。
これは視覚障害者がプールで泳ぐ際、コースロープに触れてレーンを確認するテクニックから考案されたという。正しいコースを走っている間は音声も振動もされず、軌道修正が必要なときだけフィードバックされる仕組みだ。
屋内歩行でのナビゲーションに比べ、屋外ではフィードバックを見逃しやすいケースもあるだろう。運動に没頭しても安全、という信頼性が確保されるかが鍵だ。

肝心の画像認識がどのような仕組みになっているのかは不明だが、路面のラインを追跡するようなものであれば、陸上トラックだけでなくジョギングコースにラインを引き、それに従ってジョギングするような使い方ができるかもしれない(妄想)。
現在、視覚障害者がランニングを楽しむためには伴走者によるガイドを受けるのが一般的。Wizard of OZが目指すところは、AIとICTによるバーチャルな伴走者なのかもしれない。
そういえば海外では遠隔アシスタント「AIRA」を利用してマラソン大会へ参加した例もある。
このような技術が成熟すれば、視覚障害者の運動に対するハードルは一気に下がるかもしれない。それで筆者がいきなりジョギングを始めるようになるかはまた別問題ではあるが。

関連リンク:


2019年2月13日水曜日

視覚障害者のスマホ学習に欠かせない「触図」の意外なアイデア。



視覚障害者のスマホ利用に欠かせないのが音声読み上げ機能。iOSには「Voiceover」、Androidなら「Talkback」と呼ばれる機能が標準で用意されている。
音声読み上げ機能を使ったスマホ操作の基本は、画面内の項目を左右スワイプで順番に読み上げ、ダブルタップで決定、ということになっている。だが、そんなまだるっこしい操作をやっている視覚障害者はたぶん少数派ではないだろうか。
大抵は画面内にあるボタンなどの項目の位置を覚えておき、その場所を直接タップしながら使っているはずだ。音声だけでスマホを使うと言っても、頭の中にはある程度スマホの画面をイメージしなければスムーズにスマホを操作することはできない。
スマホを使う視覚障害者は、画面を見ていないように見えて、実は脳内の画面を「見て」いる。

そのため、新しいアプリを使い始めるときなどは操作に時間がかかって仕方がない。ほぼ全盲の筆者は画面を覚えていないアプリに出会ったら、まず画面全体をまんべんなくナデナデしてボタンなど各要素の位置をチェックし、頭の中に画面のイメージを構築するようにしている。
ただそれは、ある程度スマホのインターフェイスのセオリーを理解しているからできることではないかとも思ったりする。

見えない・見えにくい人が一からスマホを覚えるには、この「画面のイメージ」をいかに持てるようになるかがポイントだろう。これが、物理ボタンで機能を確認できる機器と比べたときの大きなハードルではないかと感じている。
そのハードルを下げるべく活用されているのが触図だ。
視覚障害者向けのスマホ教室では、スマホのホーム画面やよく使うアプリの画面構成を触れて理解するための「触図」がよく用いられる。
触図は3Dプリンターで印刷した立派なものからボール紙にシールを貼った簡易的なものまで様々な作り方があるが、いずれにせよレクチャーする画面の分だけ制作するのは結構手間もコストもかかるし、フレキシブルさに欠ける。

Vision Australiaのアクセシビリティ・スペシャリスト、Tony Williams氏のアイデアは、まさに目から鱗というかコロンブスの卵的というか。彼が用いたのは「レゴブロック」。
彼は正方形のブロックを使って、iPadのホーム画面に並んだアイコンやドックを再現。iPadを初めてVoiceoverで使うユーザーが配置されたブロックの凹凸に触れることで、画面をイメージしやすくするという。

確かにレゴブロックなら説明する画面に合わせて臨機応変に触図を組み替えられる。あらかじめ作って置いた触図だと実際のiPhoneの画面と細かい部分で違いが出ることも多くそれが混乱の元にもなりがちだ。ブロックなら画面に合わせてそのばでカスタマイズできるので説得力も出やすそうだ。ブロックに点字シールなどを貼付するなどの工夫も良いかもしれない。
レゴはブロックの大きさや高さのバリエーションも豊富だし、熟練すれば画面の推移をリアルタイムに近いタイミングで伝えつつレクチャーできるようになるかも。
そして何よりブロックをいじるのは楽しい。油断してるとうっかりブロックで遊び始めてしまいそうではあるが、それもまたよし。
触図をお土産にできないのが難点かな?

それにしてもレゴが秘めているポテンシャルは侮れない。触覚コミュニケーションツールとして視覚障害者は基本セットくらいは手元に置いといてもいいかもね。
何事も工夫次第ですなあ、と思ったお話でした。

関連リンク:

2019年2月11日月曜日

触図とAIのマリアージュ。指先と耳で図の理解を助ける「TouchVision」。


言うまでもないが重度の視覚障害者が情報を得るためには、視覚以外の感覚、つまり触覚や聴覚を駆使しする必要がある。だが視覚から得られる圧倒的な情報をこれらの感覚で代替するのは非常に困難なのも事実。
中でも「図(例えば地図やグラフ)」や「数式」といったグラフィカルな情報を視覚を使わずに理解する手段は限られており、特にこのような教材を多用する教育現場においてはこの問題が履修の制限、ひいては進路選択の妨げにもなっているという。

もちろん図や数式を凹凸印刷した「触図」は古くから存在はしているものの、やはり目で見るほどスムーズには情報を得られない。この障壁を取り除くべく、さまざまな技術的アプローチから研究が進められている。
インド工科大学(IIT-D)出身のAnkita Gulati氏が開発した「TouchVision」もその一つだ。

TouchVisionは低コストで触図に音声フィードバックを加えるマルチモーダルなインターフェイスを提供する。AIによる画像認識技術を応用し、触図に含まれる様々な情報を音声で伝えてくれる技術だ。
システム構成は、スマートフォン用アプリと撮影台、指先に装着するリングという非常にシンプルなもの。撮影台にTouchVisionを起動したスマートフォンと食酢を固定したら、リングを装着した指で触図をなぞる。すると、スマホのカメラがリングのマーカーを認識し、指し示したテキストを読み上げる。
たとえば地図なら地形を触図の凹凸で確認しながら、同時に地名などの情報が音声でフィードバックされる、といった具合だ。
テキストだけでなく「色」を認識して読み上げることで、触覚で絵を観賞する際により豊かなイメージを伝えることもできる。子供向けの絵本で、登場人物の服や草花の色を読み上げるのも楽しいのではないか。


指先で「形」を確認しつつ、同時に耳から対応する情報が入ってくるため、形と文字を別々に読まなければならない従来の触図と比べ、効率的に内容を理解できる。また点字が読めない視覚障害者でも利用できるというメリットもある。物理的な制約が多い点字よりも多くの情報を含めることも可能だろう。
このシステムでは基本的に、墨字で文字情報を印刷した触図を用いるが、触図出なくても指の位置関係である程度内容が理解できそうな気もする。

視覚障害者がグラフィカルな情報を得る手段として「触図」はトラディショナルな手段だし、それは今後も変わりないだろう。だがそれに音声やAIといった最新のテクノロジーが融合することで、これまで伝えることが難しかった情報も共有できるようになるのかもしれない。

関連リンク:


2019年2月4日月曜日

「音と戯れる」iPhoneアプリ(3DとVRの巻)


聴覚を研ぎ澄まそう。
視覚的なメディアに比べ、「音」を楽しむエンターテイメントは地味ではあるが、人間のイマジネーションを広げてくれる。音でなければ表現できない世界は、確実にある。

ということで数ある「音アプリ」の中から、ほぼ全盲の筆者が気になった、iPhone向け3D&VR系の3本をご紹介。
音が頭をぐるんぐるん回るユニークな音世界を体験しよう。


「Travelear」極上の3Dサウンド・トラベルを


開発/Nicholas Culpin 価格/無料

タップ一つで世界中で録音された高品質な3Dサウンドを楽しめるアプリ。
野鳥の囀りを聴きながらセントラルパークを馬車でのんびり観光したり、ニューオリンズでジャズフェスを堪能したり。街の喧騒に疲れたらワイキキビーチでぼんやり波と戯れることだってできる。
ハイクオリティな3Dマイクで収録された立体音響は臨場感抜群。イヤホンを使えば世界の音が脳内に満たされ、あっという間に世界中を旅している気分に浸れる。あえて動画ではなく「音」にフォーカスすることで、聴いている者の想像力を大いに掻き立ててくれる。
目を閉じて、包み込むようなサウンドに身を委ねてみよう。森の中で突然近づいてきた虫の羽音に思わず首をすくめたり、地下鉄で向こうの席のおしゃべりになんとなく耳をそばだててしまいたくなるはずだ。さまざまな事情で旅行や外出が難しくても、イヤホン一つで海外の空気を感じ取れる。素敵。

Travelearは世界中の「本物」のサウンドが楽しめるのが特徴だが、ただ漠然と録音された素材を公開しているわけではない。場所を移動したり細かいイベントが添えられるなど、緻密な編集により飽きさせない工夫が実にさりげなく施されている。脳内に広がるサウンドスケープ=音風景を最大限に盛り上げてくれる演出が、このアプリの最大の魅力だろう。
ゆっくりだが新作も随時追加されているようだ。
これは願望だが日本の音風景、たとえば京都・祇園祭の宵山や山鉾巡行、年越しの除夜の鐘、渋谷のスクランブル交差点なども面白いとおもうな。


「Dear API」イヤホンしてるのに音がiPhoneから聴こえる!?


開発/Dear Reality 価格/無料

指向性音源を制御するVRエンジン「Dear API」の機能を体験できるデモアプリ。特別な機器は不要で、iPhoneのセンサーを用いて音源を制御できるのが特徴。最新のバーチャルサウンド技術を手軽に体験できる。

なにはともあれ体験してみよう。イヤホンは必須だ。
アプリを起動し「calibrate and start」をタップ。ピッカーから体験したいサウンドを11種類から洗濯する。「Play」ボタンを押すとサウンドが再生されるので、iPhoneを正面にホールドした状態で「Reset front direction」ボタンをタップする。
あとはiPhoneをゆっくり上下左右に動かしてみよう。動かしたiPhoneの位置から音が鳴っているように聴こえる。スピーカーから音を鳴らしているなら当たり前の現象だが、イヤホンを装着しているのにiPhoneから音がなっている感じがなんとも不思議である。

まあこのアプリは技術デモなのでそれだけのアプリと言ってしまえばそれまでだが、音で空間を把握する技術をわかりやすく体験できるのは楽しい。
視覚障害者的にはこれを応用して生活を向上する方法を妄想するのも一興。仕組みは異なるが感覚としてはMicrosoftの「Soundscape」やCaltechのナビゲーション研究に近いものも感じなくもない。
街や部屋のあちこちから声が聞こえてくる、そんな未来を予感させてくれるアプリだ。


「Fields」仮想空間で体験する音のインスタレーション


開発/Particle Incorporated 価格/無料

「仮想空間でサウンドと対話する」新感覚の音響VRアプリ。
iPhoneのマイクで録音した3Dサウンドやインポートしたオーディオトラックを組み合わせ、オリジナルのVRサウンド作品を作成できる。仮想空間にさまざまな素材を自由にレイアウトしたり動きを加えることもでき、いわばバーチャル空間上のサウンド・インスタレーションともいうべき音空間を構築できる。
録音・再生には特別な機器は必要なくiPhoneだけで楽しめるのもポイントだ。

肝心の音声編集機能「Create」がVoiceoverではちょっと使いにくく、まだちゃんと試せていないのだが「Discover」から提供されている作品だけでも十分に楽しめる。

個人的にはiPhoneを正面にホールドした状態で、身体の向きを変えるリスニングスタイルがおすすめ。もちろんイヤホンは必須だ。
作品を再生すると、3D仮想空間のあらゆる方向から色々なサウンドが聞こえてくる。右を向けば右から聞こえていた音が正面になったり、音によっては向きを変えても位置が変わらないものもある。と思えば音が勝手に動いたりする。現実ではあり得ない音空間が出現する。
丹念に音を聞き分け、どの音がどこから聞こえてくるのか探求して見るのも面白い。
たとえば「Nils berg cinemascope, oh john」ではサンプリングボイスは仮想空間に固定されており向いている方向によって聞こえてくる場所が変化。真後ろを向けば、ボイスはちゃんと背中方向から聞こえてくる。
「Travelear」にしろ「Dear API」にしろサウンドそのものはリアルなモチーフが使われていたが、Fieldsは自然・人工音がないまぜになったカオスな音響空間に投げ込まれる感覚が魅力。

ちょっと不思議で刺激的なサウンド体験が楽しめる。

支援技術関連記事まとめ(2022年10月)

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...