2019年5月30日木曜日

[メモ]「TapTapSee」開発元がリリースした新しい画像認識APIが凄そう。


2019年5月30日、Blind Bargainsが伝えているところによると、視覚障害者必携のクラウド画像認識アプリ「TapTapSee」や画像検索アプリ「CamFind」で知られている米国ロサンゼルスに本拠地をおくCloudSight社が、同社のこれまで蓄積してきた画像解析データをもとにした新しい画像認識APIを発表した

画像認識とは、画像に含まれている物体や風景をAIにより解析し、何が写っているかをテキストでフィードバックする技術。CloudSightにはTapTapSeeやCamFindを通じてこれまでに12億5000万枚以上の画像がアップロードされており、この膨大な画像データによって新しい画像認識APIが開発された。このAPIはクラウドを用いず完全にオフラインで動作するオンデバイスモデルを採用しているのが大きな特徴とのこと。
従来はコンピュータビジョン専用モデルで約1秒、人力による画像解析モデルで8~12秒程度の処理時間が必要だった。新APIのオンデバイスモデルではこれを平均250ミリ秒(1/4秒)にまで短縮したという。これにより同社は、これまでのように写真を撮影してから解析というプロセスを用いずに、リアルタイムによるストリーミング画像認識の可能性にも言及している。例えば認識させたいものにスマートフォンをかざし、静止した瞬間に物体認識を行う、といったイメージだ。またオンデバイスモデルのメリットは処理速度だけではない。この種のアプリで懸念されるプライバシーの問題も、オフラインで処理されることで払拭されると同社は語っている。

だがいくら高速で安全でも、肝心の認識精度が低ければ魅力は半減してしまう。同社のページを見る限り、その心配はなさそうだ。と言うよりTapTapSeeの人力認識処理よりも格段に具体的で的確な認識が行われているようにも見える。例えばこんな感じ。

  • oval cut amethyst ring with diamond halo(ダイヤモンドハローが付いた楕円形にカットされたアメジストリング)
  • pair of volkswagon diecast cars(2台のフォルクスワーゲンのミニカー)
  • 3x3 Rubik`s cube(3X3のルービックキューブ)
  • black and gray DSLR camera(黒とグレーのデジタル一眼レフカメラ)
  • black Xbox 360 console with controller(コントローラー付きの黒いXbox360コンソール)

おお、かなり詳細な説明をしているではないか。画像に含まれる要素をフィルタリングし、単純なオブジェクトの名前にとどまらず、自然な文体で写真の説明文を生成するようだ。もしこのクオリティが保証されるなら、GoogleやMicrosoftの画像認識エンジンにも引けを取らないだろう。これは期待が高まる!
視覚障害者としてはこのまま画像認識アプリとしてリリースして欲しいが、同社はこのAPIをライセンス販売し、様々なアプリに組み込むことでeコマースサイトで商品をカテゴリわけしたり、ビデオ映像を解析してタグをつける、Webの画像に代替テキストを付与してアクセシビリティを向上させるといった用途を提案している。なおこのAPIがTapTapSeeやCamFindに組み込まれる予定はなさそうだ。残念。

ここで妄想を膨らませると、このAPIを組み込んで全盲でも的確な写真を撮影できるカメラアプリとか、洋服や持ち物を整理して見つけられるデータベースアプリなんかが欲しいなあ。あと日本でちゃんと使えるかどうか。TapTapSeeは日本のユーザーも多いので大丈夫、と思いたい。

とにかく、またひとつ今後の動向が木になる技術が登場したようだ。

2019年5月29日水曜日

[メモ] 視覚障害者も触覚で映像が楽しめる米国の多感覚シアター。


2019年5月24日、米国ロサンゼルスにある世界有数の水族館Aquarium of the Pacificに併設されている劇場Honda Pacific Visions Theaterがリニューアルオープンし、そのかつてない多感覚の体験とアクセシビリティが話題となっている。

まず目を引くのはその巨大なスクリーン。20,000ルーメンの性能を持つ3台のレーザー・プロジェクターから投射される8K品質の映像は133フィートの湾曲したスクリーンに映し出され、高精細で迫力のある映像を表現。加えて床から立ち上がる直径30フィートのディスクには、別のプロジェクターからの映像が投影され、これらが融合することで他では味わえない体験を提供する。
サウンドシステムも充実しており、スピーカーはスクリーンの後ろに7台、12フィートの支柱に2台、頭上の歩道に9台、劇場の後ろに4台設置されており、サブウーファーを含めると20以上のオーディオチャンネルという豪華版。そして観客はシートを通じてサウンドを振動として体感できると言う。
さらに「香り」を生成するシステムをスクリーン下に設置。映像の重要なシーンでこの機能がどうさし、ファンによって客席に香りを届ける。

そしてこの劇場で最もユニークな仕掛けが、超音波を用いて擬似的な触覚を実現するUltrahaptics社の技術による演出だ。これは座席に設置された専用のスピーカーから、映像や音とシンクロした音波が発せられ、手の中に圧力点を生成。手の中に触感を表現するというもの。

Ultrahapticsの製品マーケティング担当ディレクターであるVince Fung氏によると、この技術が水族館や博物館の映像に使われるのは今回が初めてという。同社はCortinaやAquariumと密接に協力し、映画と同期する触覚体験を作り出した。同劇場のオリジナル作品「Designing Our Future」の作中では、観客の手の中に「泡が弾ける」ような感覚や「波が跳ね返る」ような感覚などが表現されている。

この仕掛けは映像への没入感を高めるとともに、アクセシビリティの観点では視覚や聴覚に障害を持つ観客に音声や字幕以上の情報を与えるという側面もある。視聴覚障害者には触覚を調節するパネルが提供され、最適な触感の強さにカスタマイズできるとのことだ。

この劇場ではさらに携帯端末を用いたキャプションや聴覚ループなどの支援技術もふんだんに提供されている。Aquarium of the Pacificの社長兼CEOであるJerry Schubel博士は、公共施設に障害者への合理的配慮を義務付ける「障害を持つアメリカ人法」が要求するレベルを超えたアクセシビリティの実現に注力してきたと語っている。

関連リンク:

2019年5月28日火曜日

もう白杖にジャブを喰らわない!?画期的な歩行用白杖「NO-JAB Canes」。


「JABを訳すと「突き刺す」となる。ボクシング用語としてもお馴染みだろう。
そして視覚障害者は日常的に「JAB]に悩まされている。

視覚障害者が携帯する白い杖は「白杖(はくじょう)」と呼ばれる。白杖の役割は様々だが、その中でも重要なのが歩行時に前方を探って安全を確認するという用途。段差や障害物がないか確認したり、点字ブロックや壁などを白杖で辿ることで歩行の安全を確保する。目が見える人も、暗闇で移動するとなると壁や床を手探りしてソロソロと動くはずだ。白杖はその「手」の代わりをしてくれるわけだ。いわば白杖は視覚障害者の相棒、いや「体の一部」といってもいいだろう。

しかし白杖をスムーズに砂漠には、世界はあまりにもイビツだ。
白杖を歩道に滑らせながら調子よく歩いていても、ほんの数ミリの出っ張りや凹みに白杖の石搗き(先端部分)は引っかかり、その衝撃が手首に思わぬダメージを与えてしまう。白杖の持ち方によってはグリップがお腹に痛烈な「JAB」をお見舞いしてくれることもしばしばだ。そりゃないぜ、相棒。

まあ白杖歩行訓練や石搗きをパームチップに交換するなどの工夫で多少は軽減できるものの、この衝撃を完全に回避するのは難しい。視覚障害者の中には手首を痛めてしまい、しばらく白杖歩行ができなくなってしまう者もいる。たまになら良いが、これが頻繁に繰り返されると結構なストレスとなる。

「NO-JAB Canes for the Blind」は、そんな視覚障害者のストレスを解消してくれるかもしれない画期的な商品である。一見すると何の変哲も無い折りたたみ式の白杖だが、このグリップの中にその秘密が隠されている。

NO-JAB Canesのグリップには、特許出願中の衝撃を吸収する反動機構が備えられている。これにより白杖が障害物や段差と衝突するとグリップ内部のアブゾーバーが最大5インチまで収縮。その衝撃を吸収したのちに自動的に元の状態に戻るという。
商品の説明によれば最大で80%の衝撃を吸収できるとのことだ。きになるのはアブゾーバーにより杖先の感覚が鈍らないか?と言う点だが、説明やレビューを読む範囲では問題はなさそうだ。それにしても白杖にジャブを喰らわない、ということで「NO-JAB Canes」。白杖使いなら思わずニヤリとしてしまうネーミングだ。
なお衝撃を吸収する杖は高齢者向けの歩行用杖では存在しているが、白杖でこのような機構を持ったものは筆者が探した範囲では他に見当たらなかった。

NO-JAB Canesのその他の仕様はこんな感じ。

  • 10.5インチの本羊革のパンチングレザー仕上げのグリップ
  • グラスファイバーとカーボンファイバーのハイブリッドシャフト
  • アルミニウム合金製のジョイントを用いた折りたたみ機構
  • 150ポンドの引張強度を持つSGT製センターコード
  • 6インチの反射テープ
  • 重さ11.5オンス(約326グラム)
  • 米国製

とかく視覚障害者向けの最新テクノロジーというと、IOTとかAIとかセンサーとかハイテクなものが流行りだ。白杖も障害物検知とかナビゲーションを搭載したスマートケーンが世界各地で開発されている。だがこのようなフィジカルなテクノロジーもまだまだ侮れないな、と感じた製品だった。

NO-JAB Canes for the Blindは米国Amazon.comで販売中。
60インチモデルの価格は69ドルだ。

※なお、念をおしておくと白杖を持つ視覚障害者は全盲者だけでは無い。視野が極端に狭かったり、光過敏、視界混濁などで見えにくさを感じているロービジョンと呼ばれる人々も携帯し、歩行の安全確保と周囲への注意喚起を行っている。誤解のないよう、そして周知をお願いいただきたい。

関連リンク:


2019年5月27日月曜日

[粗訳] フラミンゴ、象、そしてサメ……盲目の大人はどうやって動物の外見を学ぶのか?


※これは以下の記事を粗訳したものです。

生まれつきの全盲者はカバやサメのような動物を見たことがない。しかし彼らがそのような未見のものについて豊かな洞察力を持っていることを、ジョンズ・ホプキンス大学の研究者が新たに発見した。

「自分自身による経験だけが、私たちの周りの世界を理解する唯一の方法ではありません。」5月21日、米国科学アカデミー紀要で発表された本研究の責任著者であ理、ジョンズ・ホプキンス大学の博士候補者であるJudy Kim氏はこのように言う。
「本質的な問題は、私たちが知っていることを、どのように知るのかということです」

これまでの研究では、目の見えない人は光や色などの知識を持っていることが示されているが、研究者たちは、目の見えない人が外見について何を知っているのか、そしてそのような情報がどのようにして学習されるのかについて、ほとんど理解されていない。一部の研究によると、視覚障害者は 「フラミンゴはピンク色だ」 という言葉を覚えているという。

「多くの人々にとって、見えないものは理解できないという直感があります。」とKim氏は言う。

研究者らは、盲目の成人20人と目の不自由な成人20人に動物の名前を提示し、被験者に次のように質問した。

・動物の大きさ(最も短いものから最も高いものまで)、身長(最小から最大。)の順に並べる。
・形、皮膚の質感と色に基づいて、動物をグループに分類する
・グループのどの動物の形が他の動物の形と異なるかを選択し、さまざまなテクスチャオプション(カバには羽、毛皮、皮膚、鱗があるか?)から選択する。

全体として参加した視覚障害者も晴眼者も、同様の方法で動物をグループ化し、グループ内で、どの身体的特徴が最も観察される可能性が高いかについて一致した。
例えば視覚障害の有無に関わらず「イルカはサメと形が似ている」し「ナマケモノはグリズリーと質感が似ている」と判断した。視覚障害者20人のうち15人、晴眼者20人のうち19人が「象はサイよりも大きい」と判断したが、いくつかの違いもあった。

視覚障害者は動物の外観を、晴眼者の説明から学ぶという考えに反して、視覚障害者と晴眼者の間でもっとも意見が異なったのが、言葉で表現するのが最も簡単な要素、すなわち動物の色についてだった。
晴眼者は動物を「白、ピンク、黒、黒と白、茶色と灰色」のグループに分類し簡単にそれらのグループに原色に従ってラベルを付けた。それとは対照的に、視覚障害者は、自分の形の分類を言葉で表現するのに苦労した。彼らは多くの言葉を使い、互いに同意しなかった。視覚障害者は晴眼者と同様の形状グループを作成したが、一貫した色グループを作成しなかった。

研究者たちは、視覚障害者が動物がどのような姿をしているかを推測するために、科学者たちが種を分類する際に用いる生物学的分類法に頼っていることを発見した。この方法は、羽や翼が特徴的な形をした鳥のような場合、非常に適している。だが例えば白鳥、ホッキョクグマ、羊といったように「白い動物」は多種存在するためこのような推論は色に関してはあまりうまく機能しない。主な結論は,視覚障害者は推論に基づいて外見に関する豊富で正確な考えを発達させるということである。

「感覚と直接的な経験が、世界について学ぶ最良の方法だと考えられていることもあります。この研究結果は、言語コミュニケーションが豊かで正確な知識を与えてくれることを示しています。」とサイコロジカル・アンド・ブレイン・サイエンク大学の准教授、マリーナ・ベドニー氏は言う。


「目の見える人も目の見えない人も、都市で生活する上では野生動物について本当に知る必要はありません。しかし、私たちは彼らに魅了されています。ライオンやゾウについて知ることは私たちの文化の一部であり、同じ文化の一員である盲目の人々は言語コミュニケーションから動物の外見を推測します。」

2019年5月26日日曜日

[メモ] Blindfold Games開発者によるデジタル教育ソリューション「ObjectiveEd」。


iPhoneやiPad、iPodを愛用している視覚障害者なら「Blindfold Games」という名前を聞いたことがあるかもしれない。Blindfold Gamesはこれらのプラットホーム向けに現時点で80タイトルを超えるオーディオゲーム(音だけでプレイできるゲーム)をリリースしており、海外を中心に数万人の視覚障害者が楽しんでいる。ゲームのジャンルもカードゲームやパズルゲームを始め、スポーツやシューティング、ペット育成ゲームまで多種多様。ゲームの総合ランチャーはこちらからインストールできる。

このBlindfold Gamesの開発を一手に行なっているMarty Schultz氏が新しく起ち上げたスタートアップが「ObjectiveEd」だ。彼はこれまでのオーディオゲーム開発で蓄積してきた経験を、ObjectiveEdを通じて視覚に障害を持つ子供達の教育に直接活かそうとしている。

米国ではパソコンやタブレットを用いるゲームを通じた学習が普及しており、その効果も広く認められている。子供達はゲームを通じて世界中の国旗を覚えたり、タイピングゲーム「Mavis Beacon」などでタブレットやパソコンの操作方法を楽しみながら習得する。
しかしこのような人気の教育ゲームの多くは、視覚に障害を持つ子供には操作することができないし、その内容も見えない子供に向けられたものではない。
とはいえ点字の読み書きや空間認識といった支援教育カリキュラムを含めたアクセシブルなデジタル教材を新たに製作するのは簡単なことではない。結果、障害を持つ子供達はデジタル教育の恩恵を受けることが難しいというのが現状だった。

ObjectiveEdは、支援教育機関やコミュニティ、研究者との密接な協力を得て、総合的なデジタル教育ソリューションの提供を計画している。これには視覚障害を持つ子供達が支援教育の特別なカリキュラムを楽しみながら学習するためのiPad用アプリ「ObjectiveEd Games」と、学習者のレベルに合わせてレッスンの難易度やスピードなどを調整する機能、そして教育者が学習の進捗度や成果を分析・レポートするダッシュボードが含まれている。
ゲームアプリは学習者の年齢(高校生まで対応)や見えにくさの程度に合わせた多様なニーズにマッチするように設計されている。その中にはVoiceoverのジェスチャを学習する内容のものもあるとのことだ。

このカリキュラムは伝統的な教育手法を置き換えるものではなく、いま多くの子供達と教育機関が直面しているデジタル学習のギャップを埋めることが目的とSchultz氏は語っている。
このプロジェクトはまだ開発途上であり、正式なローンチ時期は未定。今後は生徒や教育者からのフィードバックを受けてインターフェースの改善と、要求されているカリキュラムを網羅するためのゲームライブラリの構築を中心に開発が進められるとのことだ。

関連リンク:


2019年5月25日土曜日

[メモ] 目の前の物体から単語学習ができるAndroidアプリ「Read My World]。


「Read My World」は、新しい発想に基づいたAndroid用の単語学習アプリ。主なターゲットは識字率の低い地域の子供達や、現在新しい言語を習得しようとしている人々だ。
このアプリには無数に存在する語学レッスンアプリのように文法や会話を学習する機能は搭載されていない。その代わりにAI技術を用い、現実世界にあるさまざまな物体からその名前を抽出し、その単語を学習することができるというのが最大の特徴だ。語学レッスンの補助ツールとして、また経済的に語学教育を受けられない人々が安価に単語を習得する目的を想定している。

Microsoft Garageに所属する8名のインターンによって開発されたこのアプリは、Microsoft Cognitive ServicesとコンピュータビジョンAPIを組み合わせ、スマートフォンのカメラで撮影した物体を認識しその名称を画面上に表示する。学習者はその単語のスペルを確認、発音させることでボキャブラリーを獲得できるという仕組み。
また物体認識に加え、撮影したテキストを文字認識させ、翻訳することも可能だ。
認識させた単語は画像とセットでアプリ内の学習用辞書に登録。その辞書をもとに3種類用意されている単語ゲームで、覚えた単語の復習が可能とのことだ。

現在カメラを通じて認識できる単語は日常的に扱うアイテムを中心に約1,500語。これは一般的な互角学習で獲得できる単語数に近い数字と開発者は語っている。
どんなに難しい単語をたくさん覚えても、今目の前にある物の名前がわからなければ不便だろう。その意味でもAIによる物体認識を応用したこのアプリは画期的に思える。「今目の前にあるもの」は「今覚えておくべきもの」である確率は高いからだ。画像認識技術を言語学習や翻訳に応用するというアイデアは今後のトレンドとなるかもしれない。

Read My Worldは現在テスト段階で一般公開はされていない。非政府組織や非営利団体で、識字率の低い地域において活動している教育関係者などであればアンケートに回答後、テストに参加することができる。

視覚障害者としての観点から付け加えると、「Seeing AI」が使えないAndroidユーザーにとってはMicrosoftの画像認識技術に触れられるのは期待できるかもしれない。ちゃんとTalkbackに対応していてくれれば、だけどね。

関連リンク:


2019年5月23日木曜日

「Hable」は視覚障害者のスマホ文字入力に革命を起こす(かも)。

Hable(画像引用元

スマートフォンは視覚障害者が世界と対話するための重要なツールのひとつだ。
iPhoneならVoiceover、AndroidならTalkbackと呼ばれるスクリーンリーダーを用いれば、画面上の情報を音声で読み上げることで電話はもちろんメッセージやメール、SNS、Webを通じてコミュニケーションや情報入手に活用できるし、文字認識などさまざまな視覚支援アプリで日常生活を便利にサポートしてくれる。

しかし視覚障害者のスマホ利用でネックとなっているのが「文字入力」だ。
スクリーンリーダーで画面上のキーボードを性格かつ高速に操作しタイピングするのは非常に難しい。かといって音声入力は必ずしも正確に入力してくれるわけではないしプライバシーの問題もある。Bluetooth接続の外付けキーボードも使う場所を選ぶ。
そんなわけで、視覚障害者にとってスマホの文字入力は結構な鬼門なのである。
場所を選ばずに、画面を見なくても正確かつスピーディーなタイピングはできないのだろうか? そんな要望に答えてくれそうな製品が登場しそうだ。

オランダ、アイントホーフェン工科大学(TU/E)の学生らによって設立されたスタートアップは現在、「Hable」と名付けられた新しい視覚障害者向けのスマートフォン用アクセサリを開発中だ。

これはBluetoothで接続して利用する点字入力専用のキーボード。6つの点字入力キーとEnter、バックスペースなどの操作を行うファンクションキーを備えており、スマートフォンをケースごと背面に取り付けることでスマートフォンをホールドしたスタイルで素早く点字入力が可能という。

これまでスマートフォンで点字入力を行うには、点字ディスプレイなどやや大ぶりのデバイスを用いるか、スクリーンリーダーに搭載されている点字入力機能(タッチパネルを6本指タップする入力方法)が一般的だった。しかしこれらの方法ではスマートフォンまたは点字デバイスを机の上など安定した場所に設置しなければ安全・確実にタイピングすることは難しい。
スマートフォンの背面に装着して使えるHableなら、本体を両手でホールドしながら、いつでもどこでもスムーズな点字入力ができる。さらに入力中の状態で指を伸ばせばタッチパネルの操作も可能だ(たぶん)。想像だが、晴眼者の熟達したフリック入力とまではいかなくとも慣れればかなり高速なタイピングができるのではないだろうか。

HableはiPhoneとAndroidスマートフォンに対応。7月にオランダ国内で50人規模の視覚障害者の協力を得てパイロットテストが実施予定。順調に進めば2020年初頭にも市場投入される見込みとのことだ。
点字と聞くとどうしても情報インプットの側面ばかりに注目しがちだが、Hableの登場でスマートフォンにおける情報アウトプット手段として、点字入力に高い可能性を感じた。
筆者はいまだ点字をマスターできてはいないが、こんなデバイスがあれば点字学習のモチベーションも上がるかもしれない。

関連リンク:


2019年5月21日火曜日

iOS版radikoアプリ。Voiceoverで追いかけ再生する操作手順。

※2022年4月にリリースされたバージョン7.4.12で、放送局名をVoiceoverで読み上げるようになりました。基本的な操作方法に大きな変化はありませんが、一部を除きボタンに適切なラベルが付けられました。この記事では以前のバージョンをもとに執筆していますのでご注意ください。


一時期結構な騒ぎになった「radiko」アプリのアクセシビリティ問題。
iOS版ではバージョン7.0.6で「再生」ボタンをVoiceoverで操作できるようになり、色々な工夫をしなくてもラジオが楽しめるようになった。これも多くのVoiceoverユーザーからのフィードバックと、その声に応えてくれたradiko社の誠意ある対応の賜物だろう。筆者の体験上、フィードバックがダイレクトに改善に結びつくのはかなり珍しい。残念なことではあるのだけれど。とはいえそのほかの問題点、例えば放送局名を読み上げないなどは対応されておらず、今後も粘りつよく改善を要望していきたいところ。

さて、再生ボタンが使えるようになり、Voiceoverユーザーでもライブ放送やタイムフリー再生を普通に(これ重要)楽しめるようになった。ただ、初めのうちちょっと戸惑ったのが現在放送中の番組を遡って聞きたい時、つまり「追いかけ再生」の操作方法。通常のタイムフリー再生の時の感覚で「番組表」から番組を開いても、その画面に「タイムフリー再生」ボタンが見つからず、ライブ再生が始まってしまう。
色々試した結果、ライブ再生の再生位置を調節することで追いかけ再生に切り替えられることがわかった。Voiceoverではこの操作がちょっと複雑だったので、覚書としてメモ。もっと効率的な方法があるかもだけどまあ暫定版ということで。
なおradikoアプリのバージョンは7.0.7。今後のアップデートで操作が変わる可能性があるので悪しからずです。
いか手順。

  1. 追いかけ再生をしたい、現在放送されている番組を再生する。ライブからでも番組表からでもOK。
  2. 左した隅をタップし「ホーム」と読み上げられたら、左に数回スワイプし「arrow up gray ボタン」と読み上げられたらダブルタップする。
  3. 「arrow down grayボタン」と読み上げられたら、右にスワイプ。位置調節スライダ(「○○% 調整可能」と読み上げる部分)にフォーカスしたら、ダブルタップ&ホールド&左ドラッグする。
  4. 「聴取中の番組を追いかけ再生しますか?」と読み上げられたら、右に2回スワイプして「はい」をダブルタップする。
  5. タイムフリー再生の注意ダイアログが表示されたら「button close red ボタン」をダブルタップする。
  6. 再び位置調節スライダにフォーカスしてダブルタップ&ホールド&左ドラッグして、再生開始位置を調節する。
  7. 右に数回スワイプして「タイムフリー 再生 ボタン」をダブルタップすれば再生が開始される。再生中に位置調節スライダを動かして再生位置を変更することもできる。微調整はちょっと難しいかな?
  8. ライブ再生に戻るときなど他の操作を実行する時は「arrow down grayボタン」をダブルタップする。この操作を行わないと押せないボタンが多いのですよ!

以上です。

※「ダブルタップ&ホールド&左ドラッグ」とは?
ダブルタップした時、2回目のタップで画面から指を離さずにタップしたままにする。
少し待つと効果音が鳴るので、画面に触れたまま指を左に少し動かして指を離す。
という操作のことです。

※位置調節スライダや再生ボタンなどを見失ったら?

画面の下半分を4本指でタップし「友達に教える」と読み上げられることを確認。あとは左にスワイプしていけば、たぶん見つかるはずです。

2019年5月19日日曜日

[メモ] Google検索ランクとWebアクセシビリティの関係って、どんな感じ?


米国のSEOマーケティング会社Searchmetricsは、Googleが提供するオープンソースのWeb監査ツール「Google Lighthouse」を用いた最新のGoogle検索ランキングファクタを分析したレポート「Google Lighthouse Ranking Factors 2019」を発表した。

この調査は10,000のキーワードでGoogle.comを検索し、その上位20ページに対し、主にパフォーマンス、SEO、ベストプラクティス、アクセシビリティの4つのカテゴリをテスト。そのスコアをもとにWebの技術的最適化がページランクにどのような影響を与えているかを分析したもの。分析結果は情報元を参照していただくとして(手抜き)、大まかな傾向をまとめると以下のような感じ。

  • ページの読み込みスピードが高い(特にモバイル)ほど上位にランクされる傾向にある。
  • ランク上位のページは圧縮率が高い次世代の画像形式や高速なHTTP/2Webプロトコルなど最新Web技術を採用する傾向が高い。これはパフォーマンスと相関関係がある。
  • ランク上位のページはベストプラクティス、特にセキュリティのスコアが高い。
  • 4つのテストカテゴリで最もスコアが高かったのがSEO。

Googleは2018年7月、モバイル検索におけるページの表示スピードが検索ランキングを決定する重要なファクタとなることを発表しており、今回の調査はそれを裏付ける結果となっているようだ。

ところでSearchmetrics社も指摘しているが、この調査で気になったのがアクセシビリティ・スコアの低さ。分析の対象となったサイトのアクセシビリティの平均スコアは100点中66.6だったという。これは今回調査した4つのカテゴリの中でも吐出して低い。もちろんこの結果だけでGoogle検索のランク決定にアクセシビリティが全く影響していないとは言い切れないが(下位サイトはもっと低スコアかもしれないしね)、少なくとも「Google検索ランクにおいてアクセシビリティの優先度は低い」と感じざるを得ない数字だ。
パフォーマンスや最新技術の導入、SEO対策に熱心なサイトもアクセシビリティには無頓着、という事実が透けて見える。うっすら気がついてはいたけれど、こうして数字で見せられると結構残念な気持ちになる。

筆者のようなスクリーンリーダー使いにとって、アクセシビリティが低いサイトはどんなにロードが高速であろうとも、セキュリティが高くとも使いにくい・使えないサイトになってしまう。そんなページが検索の上位に表示されるのはちょっと困っちゃうのである。極端な話、筆者にとってスクリーンリーダーで内容を把握できないページは「404 Not found」と同じだ。
どんなユーザーでも平等にアクセスできる、というのはWeb品質における最低ラインであるべきだと思うんだけど、どうでしょうかね。

米国ではada法に基づくWebアクセシビリティ訴訟が年々増加している。それによりWebアクセシビリティへの関心も高まりつつあるようだ。そしてアクセシビリティの品質がGoogleの検索ランクに大きく影響するようになれば、みんなもっとアクセシビリティ向上に本腰入れてくれるのにな、と思ったりする。
Webアクセシビリティの重要性は包括性とか来訪者の最大化とか色々な側面で語られてはいるけど結局訴訟リスクとか検索ランクへの影響とかみたいな「わかりやすい飴と鞭」がなければ大きく動かないのかもね、といち視覚障害者としてぼんやり考えるのだった。

関連リンク:

2019年5月14日火曜日

[メモ] スマホひとつで屋内ナビを実現する「Path Guide」。



スマートフォンを用いた音声ナビゲーションは、視覚障害者のモビリティ問題を解決する技術のひとつ。さまざまなアプローチから開発が進められているジャンルだが、その中でも「Path Guide」は、電波もビーコンもカメラも使わないユニークなプロジェクトだ。

2017年7月に発表された「Path Guide」は、Microsoft Research、Cloud & Mobile Research groupの準研究員Yuanchao Shu氏とシニア研究員Börje Karlsson氏を中心に開発された屋内ナビゲーションシステム。AndroidアプリとAzureがホストするクラウドサービスのみで屋内ナビゲーションを実現する。BLEビーコンなどの設備を必要としないため、低コストでシステムを構築できるのが特徴だ。

Path Guideでは、まず晴眼者の協力を得て特定の移動ルートを歩き、アプリを用いてその軌跡を記録。その移動ルートをサーバへアップロードする必要がある。
この時用いるのが、スマートフォンに内蔵されているデジタルコンパスや加速度、ジャイロといったセンサー。つまりスマートフォンが、どの方向にどれだけ移動したかをセンサーで計測し、そのデータをもとにルートを作成する仕組みだ。
あとはナビゲーションを利用したいユーザーが出発地点で保存されたルートを選択することで、ルートデータと端末のセンサーを付き合わせ目的地まで誘導する。
記録したルートは反転、つまり帰り道のナビゲーションも可能。またルートの途中で音声やテキスト、写真で注釈を加えることもできる。

BLEビーコンやQRコードを用いる他の屋内ナビゲーションシステムと比べると、なんといっても特別な設備なしで使えるのがPath Guideの大きな魅力。
決まったルートを繰り返し移動することが多いケース、例えば就労先や宿泊施設などで使えば、移動の独立性や自由度は大いに高まるだろう。エレベーターから自分の部屋まで戻ったり、会社のトイレや休憩室へも単独で行けるようになるかもしれない。
もちろんこのシステムのターゲットは視覚障害者だけではない。屋内駐車場で駐車した場所を記録したり、会議やイベントの主催者が案内マップの代わりに作成したルートを共有するといった用途も考えられる。

センサーを用いるナビゲーションは、基本スマホさえあれば利用できるため、圧倒的に導入・管理コストが低いというメリットがある。
一方で作成したルート以外では使えなかったり、端末のセンサー性能による誤差などの課題もある。例えば一定距離にビーコンを設置し、誤差をリセットするような方法もアリかもしれない。
現在さまざまな手法のナビゲーション技術が開発されているが、それぞれに一長一短があるのも事実。今後はこれらの技術を組み合わせたハイブリッドな仕組みが求められてくるのかもしれない。

関連リンク:

2019年5月10日金曜日

[メモ] アプリとスマートスーツケースで視覚障害者に快適な空の旅を。


米国カーネギーメロン大学(CMU)のロボティクス研究所はピッツバーグ国際空港と提携し、空港内における視覚障害者のナビゲーション技術の実証実験を行なった。このプロジェクトを率いるのは同大学の客員教授でIBM Fellowの浅川智恵子氏。
この実験では「NavCog」と「Bbeep」という2つの技術を組み合わせ、視覚障害者が目的の施設をスムーズかつ安全に利用できるかを検証している。

NavCog」はCMUが開発したスマートフォンを用いた屋内歩行ナビゲーションシステム。日本でも成田空港や豊洲の商業施設などで実証実験が行われている。
このシステムは施設内に設置されたBLEビーコンからの電波をスマートフォンでキャッチし、専用のiPhoneアプリを用いて音声によるターン・バイ・ターンのナビゲーションを提供する。航空会社のカウンターやトイレ、商業施設はもちろん、道中のエレベーターやエスカレーター、動く歩道といった設備への誘導も行う。
ピッツバーグ国際空港では空港の要所に数百のBluetoothビーコンを設置し実験を行なった。

Bbeep」は、東京大学と早稲田大学によって開発された衝突回避システム。主役はカメラを搭載した車輪付きのスマートスーツケースだ。視覚障害者がこれをコロコロ転がすことで床面の状態を把握すると同時に、カメラが捉えた障害物をユーザーに音として伝える。
障害物との距離に応じて音は5~2.5秒間隔で変化し、危険な状態を検知するとユーザーに停止を促すという。またスピーカーから警告音を鳴らすことで周囲に存在をアピールし、他の利用客に事前回避を促す効果もある。

実際の実験では10人の視覚障害者が参加。iPhone 8を用いて空港の施設へ安全に移動できるかをテストした。結果、多少迷うことはあったものの、多くの被験者は3分程度でカウンターを見つけ、6分あまりでゲートを通過。そこから数分程度でトイレやレストランへ到達することができたという。「Bbeep」を用いることで障害物との衝突や他の利用客とのトラブルも発生しなかったとのこと。関係者にとってかなり手応えアリ!な結果だったようだ。確かにこのパフォーマンスなら、時間に余裕がなくても慌てずに空港を利用できそうだ。

鉄道など他の公共交通機関と比べ、空港は施設の構造も複雑で、行き交う情報量も膨大。またトランジットや遅延など長時間空港内に滞在を余儀なくされるケースも少なくなく、視覚障害者が単独で利用するには数多くのハードルが存在する。時間帯によっては空港の係委員や他の利用客の協力を得にくい場合も考えられる。
視覚障害者が一人で安心して空の旅を楽しむには、技術による情報支援が必要不可欠だろう。今回の屋内ナビゲーションとは別のアプローチとして、友人による遠隔サポート「AIRA」を導入する空港も増えており、こちらはすでに実際に利用することができる。

AIRAはともかく屋内ナビゲーションは晴眼者にも恩恵のある技術ではないだろうか。その辺りをアピールできれば、普及は難しくないと思うのだけど。どうでしょうかね。
もしかしたら近い未来「屋内ナビって障害者向けの技術だったんだって」なんてトリビアが出来てたりしてね。エレベーターやタイプライターがそうであったように。

関連リンク:


2019年5月7日火曜日

[メモ] Microsoftの「点字ゲームコントローラー特許」について、しみじみ思う。


このところ、海外からビデオゲームのアクセシビリティにまつわる話題が頻繁に聞かれるようになってきた。以前のエントリーでも書いたが、これは米国において今年からCVAA法(21 世紀の通信と映像アクセシビリティ法)がビデオゲーム全般に適用されたことも少なからず影響していると考えられる。
元下手の横好きゲーマー、現在はほぼ全盲の筆者としては、このような動きに対して、またゲームが楽しめるようになるかも?といった淡い期待を抱いてしまう。
今回のニュースも、そんな楽しい未来を予感させてくれるモノノ一つだ。

Microsoftは2018年10月、World Intellectual Property Office (WIPO)に対し、視覚障害者向けの新しいゲームコントローラーの特許を申請した。その内容が2019年5月2日に公開されたと、LetsGoDigitalが伝えている
なおこの特許に関してはまだMicrosoftから正式な情報やコメントは出ていない。

特許内容によると、このコントローラーは通常のワイヤレスXboxコントローラーの背面に、3×3セルの点字ディスプレイ、側面に6つのパドルを装着した姿をしている。
伝えられる情報の範囲から想像するとプレイヤーは両手の親指・人差し指で通常の操作を実行しつつ、他の指で点字に変換されたゲーム内のテキストを点字ディスプレイの隆起に触れて読んだり、6つのパドルを用いて点字による文字入力を行う、といったスタイルでゲームをプレイできるようだ。また特許では音声によるコマンド入力や音声入力した内容を点字に変換して他のプレイヤーへ伝達する機能にも言及しているという。

ビデオゲームの視覚的なサポートはプレイヤーの見えにくさによってさまざまなアプローチが考えられる。ロービジョンであれば画面のコントラストや配色、エフェクトの強さなどを調節することでゲームを楽しめるようになる場合がある。ここまではすでに実装している作品も増えてきている。
一方重度の視覚障害者のサポートとしては、まだ採用例は少ないがテキストを音声で読み上げる手法が考えられる。だが音声読み上げは、他のサウンドとのバランスや処理できる情報量に限りがあるなど課題も多いと個人的には感じている。それに、これはテレビの副音声でも感じていることなのだが多人数でプレイする場合、自分のためだけに音声読み上げを使うのは気が引けるのである。考えすぎかもしれないけどね。
もしここに「点字」が加われば、そのような問題の解消にもつながるかもしれない。応用としては例えばメッセージは音声で、ステータスは点字でといった感じでアウトプットを分担する方法もアリかもしれない(妄想)。
さらに点字が使えるようになれば、視覚・聴覚両方に障害を持つ盲ろうのプレイヤーにもゲームを楽しむ可能性が広がってくる。いいぞいいぞ。

これが製品として世に出るかは全くわからないが、もし発売されるとして心配してしまうのが価格だ。近年では低価格の点字ディスプレイも登場してはいるがそれでも500ドルあたりが最低レベル。これは構造の複雑さにくわえ、需要的に大量生産できないというのも大きな要因だろう。
このコントローラーの仕組みを点字だけでなく一般ゲーマーでも楽しめる仕掛けに使えれば、生産数も確保でき価格も抑えられるかもしれない。PCやスマートフォンと接続できれば安価な点字ディスプレイとしても注目されそうだ。

そういえば一年くらい前に発表があった、MicrosoftとAppleによる点字ディスプレイの共通規格の話、どうなったのかな? もしかしたら今年のGlobal Accessibility Awareness DayやE3あたりで何か発表が?あるのかな?あればいいね。
なにせMicrosoftは2018年9月にXbox Adaptive controller(XAC)を約100ドルで発売したという実績があり、ビデオゲームのアクセシビリティに関しては積極的に取り組んでいるように見える。XACと比べるとハードルはたかそうだがこの点字コントローラーも、意外と実現する可能性はあるかもしれない。

関連リンク:


2019年5月5日日曜日

[メモ] LEGO Braille Bricksについて、あれこれ妄想。


LEGOブロックは、視覚障害者にとっても有用なツールの一つ。
指で触れながらさまざまな形を表現できるLEGOを用いることで、ものの形をイメージしたり、建物のモデルを組み立てて空間認知能力を育てる、といった試みが行われている。触図や3Dプリンターと比べると解像度は低いが、手軽に立体モデルを構築できるメリットもある。そういえば以前記事にしたタッチスクリーン画面をLEGOで伝えるといった使い方もあった。
見える・見えないに関わらず工夫次第で触覚によるさまざまなコミュニケーションが楽しめるのが、LEGOの魅力のひとつだろう。

そんなLEGOは先月末、子供達が点字を学ぶための専用ブロック「LEGO Braille Bricks」の開発を発表した。詳しくは以下の記事で(手抜き)。


LEGO Braille Bricksの仕様をまとめてみると

  • 通常サイズの4X2ブロックの突起で点字を表現。
  • アルファベットや数字、記号など約250のブロックを用意。
  • 各ブロックには墨字で対応する文字が印刷されている。
  • 通常のLEGOブロックと互換性がある。
  • 対応言語は英語やデンマーク語など。日本語対応は未定。

といった感じのようだ。
もちろんまだ発表された段階だし写真を確認することはできないので報道テキストから妄想するしかないが、こうしてみると、結構シンプルな製品だなあという印象を持った。
せっかく作るのならブロックから音が鳴ったり、ブロックで組み合わせた単語を読み上げるみたいな仕組みがあれば楽しいのにね。マインドストームに代表されるLEGOの技術をもってすれば難しいことではなさそうだけど、やはり市場規模がネックなのか。想像だけど。
あと個人的には点字に対応する文字を墨字ではなく、指で触れて確認できる触覚文字にしてくれると、筆者のような中途失明者が単独で点字を学習する助けになるように思うまあ。

でも子供達にとっては親しんだLEGOで遊びながら点字が覚えられるのは絶対的に楽しいし、既存のブロックと組み合わせることで従来ではできなかったクリエイティブな学習ができるようになるかもしれない。逆に晴眼の子供にとってもこの製品が点字に興味を持つきっかけになる可能性もある。点字の認知度を上げ継承し続ける意味でも、LEGO Braille Bricksのインパクトは決して小さくはないだろう。LEGOブランドの影響は絶大だ。

ただ、LEGOの突起は実際の点字と比べかなり大きいため、点の配置を覚えるには有効ではあるが、これですぐさま既存の点字がすらすら読めるようになるわけではないように思う。指先感覚のギャップをいかにして埋めるかが課題になりそう。
点字の体系的に、そのままでは日本語への対応は難しいかもしれないけど、いつかは出て欲しいなあ。絶対需要はあると思うし、これをきっかけにLEGOユーザーも増えると思う。
とりあえず正式リリースの2020年を期待を込めて迎え、機械があれば遊んでみたいな。

関連リンク:


2019年5月4日土曜日

[メモ] ボストンの公共交通機関で視覚障害者の遠隔サポート「AIRA」の試験提供がスタート。



米国マサチューセッツ州ボストンを中心に鉄道・バスなどの公共交通機関を運営するMBTA(Massachusetts Bay Transportation Authority)は、視覚障害者の遠隔サポートサービスを提供するAIRA社と提携し、2019年5月1日から6ヶ月間、同社が運営する交通機関で無料のAIRAサービスを提供するパイロットプログラム「AccessAI」を発表した。
この提携により、視覚障害者が交通機関を利用する際、スマートフォンのアプリを通じていつでもAIRAのエージェントと接続し、情報提供や移動支援などさまざまなサポートを受けられるようになる。

AIRAは個人契約による有償サービスのほか、これまでも提携するイベント会場や空港、公共施設、商業施設などでゲスト接続による無償サービスを提供してきたが、公共交通機関を対象にした広域サービスの提供は珍しい。これは公共インフラの一つとしてAIRAが認識されつつある証明なのかもしれない。
今回の提携は10月31日までという機関限定での実験的なものだが、この機関で得られた実績をもとに今後の展開も考えられているという。

AccessAIが利用できるのは、MBTAの地下鉄(5路線、約145駅)、MBTAバス(177路線、4つの高速路線、役8000の停留所)、MBTAフェリー(両岸の各ターミナル)、Commuter Rail(約138駅)の施設。
これに加え、ボストンですでにAIRA無料アクセスが提供されているボストン・ローガン国際空港やAT&Tストア、Bank of americaのATMコーナーやWegmans(スーパーマーケット)などでAIRAサービスが受けられる。
具体的なサポートの例としては、階段やエレベーター、トイレやサービスカウンター、券売機といった設備への誘導や、時刻表の確認、乗り換えガイド、さらには遅延などのトラブル発生時の案内などが挙げられている。要するに交通機関を利用するうえで必要なサポート全般ということだろう。
さらにAIRAをスムーズに利用するためのトレーニングセッションも定期的に開催され、スマートフォンを持たない視覚障害者のための何らかの施策もありそうな雰囲気。実に至れり尽くせりである。

日本では点字ブロックや誘導チャイムの普及に加え、国交相の指導もあり鉄道では駅員による案内サービスが定着しつつある。有人改札まで辿り着ければある程度の移動手段は確保できるが、海外ではそのようなサポートを提供することは少ないらしい。そのため今回の提携は革新的な試みとして受け止められているようだ。
今回の実験が視覚障害者の移動にどのような影響を与えるのか。
とても興味深いし、羨ましいなあと思ったりする。

2019年5月3日金曜日

[メモ] 視覚障害者向け屋内ナビ「Right-Hear」と世界最大級のナビアプリが提携。


視覚障害者の屋内ナビゲーションシステムを開発するイスラエルのスタートアップRight-Hearは、同じくイスラエルに本拠地を置く交通系アプリmoovitとの提携を発表した
世界最大級のナビゲーションアプリとの連携により、Right-Hearを用いた視覚障害者の単独外出がより便利なものになるかもしれない。

Moovitは世界1,800以上の都市で利用できるナビゲーションアプリで、ユーザーはすでに1億人以上とも言われている。ユーザーのライフスタイルに合わせた移動ルートをアドバイスしてくれる機能が特徴だ。
一方Right-HearはBLEビーコンを用いた屋内ナビゲーションシステムを世界各国で展開しており、専用アプリを用いることで視覚障害者を音声でナビゲーションする。すでに医療機関や公共施設、ショッピングセンターや外食チェーンなどさまざまな施設に導入されており、見えなくても単独で施設内を自由に移動することができる。

今回の提携により、利用者はRight-Hearシステムが提供されている場所をアプリで検索し、Moovitと連携させることでその場所までの移動ルートを作成できるようになるという。
例えばRight-Hearが導入されているショッピングセンターを目的地として指定すれば、そこまでのナビゲーションをMoovitで行い、目的地に到着後、Right-Hearアプリで屋内ナビを利用する、といった具合。
要するに屋内ナビゲーションを得意とするRight-Hearと、屋外&公共交通ナビゲーションを専門とするMoovitを繋げることで、視覚障害者の移動をよりシームレスにする、という試みのようだ。
確かにRight-hearが導入され多としても、そこへたどり着くまでの手段が提供されていなければせっかくの設備も活かしきれないだろう。自宅から施設までの間をMoovitのようなアプリで埋められれば、むしろRight-Hear目当てに外出する視覚障害者が増えるかもしれない。
残念なことにRight-hearもMoovitも日本ではサービスされていないため実際に試すことはできないが、スマホを用いるナビゲーションの未来像の一つとして興味深い。特に視覚障害者にとっては、出発地から目的地までの間に「隙間」が発生してしまうと、たちどころに迷ってしまう。その隙間をいかにして埋めていくかが、このようなナビゲーションシステムにとって大きな課題となるだろう。

なおMoovitは視覚障害者をビデオ通話でサポートするアプリ「Be my eyes」との連携も発表しており、視覚障害を持つユーザーを意識したサービスに積極的に取り組んでいるようだ。Right-Hearとの提携とも関係あるのかもしれない。

支援技術関連記事まとめ(2022年10月)

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...