2019年1月31日木曜日

視覚障害者ナビの新潮流。ARKitベースの「Clew」。

Clew Image
画像引用元:Clew

視覚障害者の移動支援に関する技術開発は、現在世界中でさまざまなプロジェクトが進行している。中でも屋内ナビゲーションについてはBLEビーコンやWi-Fiなどの電波を用いるもの、QRコードを応用したものなどが登場しているが、導入コストやメンテナンス性などそれぞれに課題を抱えており、なかなか本命が見えてきていない。
そのような状況の中、「Clew」は、ARと画像認識を用いることで、ナビゲーションの新しい可能性を感じられるプロジェクトだ。リリースは少し前のようだがApplevisのフォーラムの投稿で知り、興味を持ったのでご紹介。

「Clew」は、米国オーリン・カレッジの学生チームによって開発されている、視覚障害者の移動を支援するiPhone専用アプリ。iOS11で登場した拡張現実プラットホーム「ARKit」を用いて移動ルートを記録し、歩行者をナビゲートするのが特徴だ。
実行にはiOS11以降がインストールされたiPhoneが必要(iPhone 7以降を推奨)。アプリはAppStoreから無料でダウンロードできる;。

Clewの仕組みは、カメラで捉えた移動ルートの風景を解析してARマーカーを作成、。ナビゲーション時にカメラの映像に対応するARマーカーに従って進む方向や階段を振動や音声で伝えてくれる。つまり歩いたルートをiPhoneが「見て」覚えてくれ、帰り道まで案内してくれるというわけだ。
ビーコンや物理マーカーなど特別な設備は一切不要であり、iPhoneの位置情報サービスも使用しない。

現在Clewでできることは、歩行ルートの記録(1ルート)と、その記録を元に出発地まで戻るルート(つまり帰り道)までのナビゲーション。記録したデータの保存はできないため現時点では実用性というよりはARと画像認識を用いたナビゲーション技術を体験する、という用途がメインだろう。原理的には屋外での利用も可能だが、自動車など固定されていないオブジェクトや光の変化が多いと誤動作する可能性が高く、明るさが安定した屋内かつ短距離でのテストが推奨されている。

では実際にClewを用いてナビゲーションを体験してみる。
まずはアプリを起動し、歩行ルートを記録する。

  1. 出発地点で「Record pass」をタップ。
  2. iPhoneを顔の高さに垂直にホールドした状態で歩く。
  3. 目的地に到着したら「Stop recording」をタップ。

ルート記録が完了すると、そのまま帰り道のナビゲーションモードに移行する。iPhoneの位置はそのままの状態をキープ。
なお効果音はiPhoneのサイレントスイッチが有効になっていると鳴らないので注意。

  1. 「Start nabigation」をタップ。
  2. iPhoneをホールドしたまま方向を変えると、小さな効果音とともに振動する方向があるので、振動をキープしたままその方向へゆっくり歩く。
  3. 曲がり角に到着すると効果音(口笛)と共に音声で指示してくれる。方向転換し、引き続き振動をキープさせて歩く。
  4. 方向を見失ったら「Get direction」をタップすればどちらへ歩けばいいか教えてくれる。
  5. 目的地に到着すれば音声が流れてナビゲーションが終了する。

筆者は自宅のごく狭い範囲でいくつかのルートを試したが、想像していたより的確なナビゲーションを体験できた。ただ廊下など暗い場所を経由するとうまくARマーカーが記録されないようで、行き詰まることもある(思わず壁にぶつかってしまった)。階段は試すことはできなかった。
なおiPhone設定の「Clew」から距離単位やフィードバックの設定を変更できる。

まだ実験段階のアプリであり実用的に使うのは難しいが、カメラの映像だけで正確なナビゲーションを体験するのは新鮮な驚きがある。ARと画像認識によるナビゲーションは、視覚障害者の移動に大きなインパクトをもたらすと感じさせてくれる体験だった。特別な設備を用意することなく、iPhone一つで歩き回れる日は、案外すぐそこまで来ているのかもしれない。
なお、アプリを試す際は、必ず周囲の安全を確認したうえ出来るだけ見える人に手伝ってもらおう。

関連リンク:


2019年1月26日土曜日

視覚障害者の誘導を安全・快適にするハーネス「Ramble Tag」。

Ramble Tag
Ramble Tag)画像引用元:Kickstarter

視覚障害者が家族やガイドヘルパー、駅員さんなどに誘導してもらう場合、一般的に誘導者の肘や肩に掴まらせ手もらって歩く「手引き」スタイルが基本となる。(ちなみに視覚障害者の誘導方法については日本点字図書館のリーフレットがわかりやすくておすすめ)

ただ手引き誘導、普通の速度で歩くぶんには問題ないが、横断歩道を渡っている最中に信号が変わりそうになって小走りになったり、人混みを縫って歩く時など、油断していると掴まっている手が離れてしまうこともしばしば。離れそうだからとガッツリ力を入れるわけにもいかず衣服の素材や雨などで手が滑りやすくなることもある。また誘導する立場からすれば人によっては長時間、身体を直接掴まれるのはストレスに感じるかもしれない。
普段当たり前のように手引きしてもらう立場にあるが、結構いろいろ解決すべき課題が潜んでいるように思えるのだった。そしてその思いは万国共通のようだ。英国で、この問題を改善してくれるかもしれない製品が登場したという。

Ramble Tag」は、英国スコットランド、グラスゴー在住のLaura Maclean氏と、彼女の友人で視覚障害を持つTom Forsyth氏によって開発された、視覚障害者のガイド歩行を補助してくれるハーネスだ。
ガイドする側がこれを上腕に装着し、反対側のハンドルを視覚障害者が握ることで、ちょっとした弾みで手引きがほどけ、ガイドとはぐれてしまったり、危険な場所に取り残されるといったトラブルを防ぐことができる。一瞬ちょっと大袈裟に感じるが、言われてみると確かにあると良い製品かも。視覚障害者に限らず、身体の問題で歩行が困難な場合にも役立つかもしれない。

Ramble Tagは軽量で通気性の高い「spacemesh」と呼ばれる素材を用いており耐久性にも優れている。また外出時に身に付けるものだけに、デザインにもこだわっているのも特徴。カラーはブラック、レッド、ブルーのほか視認性の高いオレンジのラインナップが用意されている。
開発者いわく、町歩きはもちろん、グループで移動する場合やスポーツを楽しむ時にも威力を発揮してくれるという。使用感は想像するしかないが、そのまま肘や肩を持って手引きされるよりも、気を使うことなくしっかりホールドできるのは安心感に繋がりそうだ。
家族やガイドヘルパーだけでなく、駅やイベントで視覚障害者を誘導することが多い職員やボランティアにとっても、手引きをより安全・快適にしかつ誘導者の負担を軽減するアイテムとして注目の一品かもしれない。

この製品は障害者の独立性を高め、生活を変える発明や製品を表彰する国際的なデザインコンペティション「Blackwood International Design Award 2018~19」への招待も決定している。
さらに2019年1月にはイングランドのブリストル空港への導入も発表された。フライト時間に余裕がないと誘導者とダッシュしなければならないケースもありうるので、効果は大きそうだ。

購入・支援はKickstarterページから。価格は1個で19ポンド、2個が37ポンド、10個セットが165ポンド(日本への送料別)。素敵なパッケージ放送でプレゼントにも最適とのことだ。

関連リンク:


2019年1月25日金曜日

アップル、英国で視覚障害学生向けに「Everyone Can Code」を提供。


Everyone Can Code」は、アップルが推進するコード学習プログラムだ。
iPad用アプリ「Swift Playgrounds」を用いて同社が開発したプログラミング言語「Swift」を、誰もが(特に学生や子供たちが)手軽に学べるよう、さまざまなカリキュラムが用意されている。
そして2018年5月 17日、「Global Accessibility Awareness Day(GAAD)にあわせ、このプログラムを視聴覚障害を持つ学生にも利用できるようにした。
これはiOSに標準搭載されているVoiceoverなどの視聴覚サポート機能をベースに、教育機関やエンジニア、アクセシビリティ専門家などとの緊密なコラボレーションによって実現した。米国ではすでにいくつかの学校が導入を始めている

2019年1月24日、英国王立盲人協会(RNIB)は、アップルとパートナーシップを締結。「Everyone Can Code」を用いて視覚に障害を持つ英国の学生が、スムーズにプログラミングを学習できるよう、アクセシブルな環境を提供する取り組みを発表した。

RNIBはアップルと協力し、視覚に障害を持つ学生のために触図や点字、高コントラストの印刷教材などを制作するとともに、英国中の学校にアクセシブルなプログラミング学習のためのリソースを提供する。

英国では1995年に「IT」としてICT科目が義務教育課され、2014年のカリキュラム改定で制定された「Computing」で義務教育期間でのプログラミング学習が必修化された。だが障害をもつ学生にとって、現状のプログラミング学習環境は必ずしもアクセシブルではないという。
今回の提携はそのような状況を改善させようというRNIBと、アップルの「Everyone Can Code」戦略のマッチングによる成果といえる。
この発表と期を同じくして、ロンドンで開催された教育技術の展示会BETT 2019では、アップルのアクセシビリティ統轄ディレクターSarah Herrlinger氏によるセッションが行われており、アップルが教育におけるアクセシビリティに注目していることがうかがえる。それはMicrosoftも同じようだ

現実として職業の選択肢が限られる視覚障害者にとり、プログラミングは大きな可能性を与えてくれる技術だ。障害を持つ学生にとって、プログラミング学習が果たす役割は決して小さくないだろう。
日本でも、2020年には小学校でのプログラミング学習が必修化される。アクセシブルな学習環境は、今後一層重要視されてくるに違いない。

関連リンク:


2019年1月24日木曜日

[一般][Mac] メカニカルキーボードの「音」を再現する「MKS(Mechanical Keyboard Simulator)」


キーを押し下げると「カチッ」という小気味良い音
それとともに指先に感じるしっかりとした反発力。
触覚と聴覚を刺激するメカニカルキーボードの魅力は、パソコンの主流がノート型に移行した現在も人々の心を掴んで離さない。

筆者は上京してすぐ入ったプログラマーのバイトでIBMの端末を使っていたが、それにつながっていたのが、幻の名機と呼ばれる「5576-A01」だった。バックリング・スプリング機構から奏でられる玉を弾くような打鍵音とストロングな反発力は、筆者の耳と指先の記憶にしっかりと刻み込まれている。もう30年近く前の話だ。
現在も品揃えのいいショップに行けば、Cherry MXスイッチなどを採用したメカニカルキーボードを見つけることができる。

MKS(Mechanical Keyboard Simulator)は、メカニカルキーボードの打鍵音をMacで再現するちょっとマニアックなユーティリティだ。
MKSをインストールするとメニューバーに常駐し、キー入力に合わせてカチカチというメカニカルキーボードの小気味良いサウンドが再生される。ステレオサウンドに設定すれば、ちゃんと押したキーの位置からサウンドが鳴る芸の細かさ(ぜひヘッドホンで試してみてほしい)。
オプションの充実振りも特筆もの。音量調節はもちろん、3種類のサウンドから好みの打鍵音を選べたり「キーを離す音」を切り替えられるなど、とことんリアルさを追求している。いい意味で同化しているほどのマニアックさだ。

○App for Mac
作者/Bogdan 価格/無料


MKSのインストールと起動


  1. 「MKS.dmg」をダウンロードする。
  2. MKS.dmgを開いて「MKS.app」を「アプリケーション」フォルダにコピーする。
  3. MKS.appを起動。権限の設定を促す英語のダイアログが開くのでいったん閉じる。
  4. 「システム環境設定」を起動し「セキュリティとプライバシー」>「プライバシー」>「アクセシビリティ」の順にクリック。
  5. 左下の南京錠アイコンをクリックしてユーザーパスワードを入力し、アンロックする。
  6. リストにある「MKS.app」にチェックを入れる。
  7. MKS.appを起動するとメニューバーに常駐し、キーサウンドが有効になる。
  8. 終了する時はメニューバーのアイコンをクリックして「Quit」を洗濯する。


MKSのオプション設定


メニューバーにあるMKSのアイコンをクリックするとメニューが表示され、ここでMKSの設定を変更できる。音量はもちろん、キーの上げ下げやランダムピッチなど、オプションからもこのツールのこだわり振りが感じられる。

Mute Keys
サウンドをミュート(消音)する。
25% - 100% Volume
音量を4段階で設定する。
Stereo Sound / Mono Sound
サウンドのステレオ/モノラルを切り替える。
Mod Keys On / Off
修飾キーを押した時に音を鳴らすかを設定する。
Keyup Sound On / Off
キーを「離した」時に音を鳴らすかを設定する。
Randomize Pitch On / Off
オンにするとサウンドのピッチがランダムに変化し、リアルに鳴る。
Tappy Profile 1 / 2 / Clicky Profile
サウンドの種類を3種類から選択できる。


楽しいだけじゃなく、実用性もある


当然ながらメカニカルキーボードのキータッチは再現されないが、打鍵音だけでもそれなりの雰囲気が楽しめる。かつてメカニカルキーボードで仕事をしていた身としては、当時の感覚が戻るような戻らないような。
ヘッドホンを使えば、騒音問題でメカニカルキーボードを諦めていたユーザーにも安心だろう。

MKSは趣味的なユーティリティに見えるが、実用性もある。ストロークが浅く打鍵感が乏しいキーボードでブラインド入力すると、たまに湯力漏れをしてしまうことがあるが、このユーティリティを使えばサウンドでキー入力を確実に確認できるようになる。

メカニカルキーボードを使ったことがある人もそうでない人も、タイピングがちょっと楽しくなる「MKS」。体験してみてはいかがだろうか。


2019年1月23日水曜日

「Verifone Navigator」の登場で考えるカード決済のアクセシビリティ。


キャッシュレスの波が勢いを増す中、視覚障害を持つ筆者的にはどうしたって気になるのがアクセシビリティ。キャッシュレスと言えばやれFeliCaだQRコードだと群雄割拠の様相を呈しているが、代表格と言えるのは歴史・普及率などの面で、やはりクレジットカードだろう。今後もさまざまな決済サービスが登場するのは間違いないが、キャッシュレスをリードするのはやはりクレカではないだろうか。
そこで改めてクレジットカード決済におけるアクセシビリティに付いて考えてみた。


カード決済時の困りごと


視覚障害者にとってクレジットカードは、ネットショッピングなどを利用するうえでなくてはならないものだが、いざ実店舗でカードを利用する段になるとさまざまなバリアに遭遇する。つまり決済にまつわる手続きだ。
ここで筆者の体験に基づいたカード決済の困難さを挙げてみよう。

1.決済金額の確認。
たいていの場合、支払い金額は口頭で伝えられる。見えていればレジの表示や決済端末の表示、決済レシートの金額を確認できるが、見えない人間には言われた額を信頼するしかない。まあ金額くらいなら誰か見える人に確認してもらう方法もあるが確実な手段とは言い切れない。

2.サイン。
サインの障壁は視覚障害者の間でも話題に上るトピックスである。
ちなみにクレジットカードのサインには特段の決まりはないので、人によっては見えなくても書きやすいサインを使うようだ。またサインガイドのような手書きサインを補助するグッズもある。筆者は中途失明なので手が憶えているサイン(漢字)を、サインガイドを用いて書くようにしている。
最近ではタッチパネルにサインする端末もあるようだ。その場合ガイドは使えないかもしれない。まだこのような端末には遭遇していないが、アクセシブルではなさそう。

3.暗証番号。
カードにICチップが付いていれば、サインの代わりに暗証番号(PIN)を求められる場合がある。むろん口頭で告げるわけにはいかないので自分で端末を操作しなければならない。物理ボタンのある端末であれば問題なくパスできるが、これもタッチパネル端末では一人で操作するのは困難だろう。

4.明細レシートの確認。
無事決済できたとしても、印刷された明細レシートはその場では確認できない。これは後日Webから確認するという手段が用意されているが不安に感じる視覚障害者もいるだろう。もちろんWebにアクセスできなければ確認する手段はない。

……という感じで、視覚障害者がリアル店舗でクレカ決済するにはいくつものミッションが立ちはだかるのである。
サインレスならラクだけど、カードの判別の問題もある。実に厄介だ。


見えなくても決済可能「Verifone Navigator」


近年ではセキュリティ対策と多機能化の波により、決済端末はタッチパネル方式に置き換えられる傾向にある。そのような状況で決済のアクセシビリティ問題に対応する製品も登場している。
少し前になるが2018年10月22日、世界各国でPOS端末などを展開している米国Verifone社は、視覚障害者でも単独かつ安全にカード決済を処理できる端末「Verifone Navigator」を発表した。


Verifone Navigatorはタッチパネル操作を用いる決済端末だが、視覚障害者向けに音声アナウンスやスクリーンリーダーライクなジェスチャ操作、PIN入力用のプラスティック・オーバーレイによる触覚入力を提供する。
これらの機能によりタッチスクリーンが見えない利用者でも、音声で決済金額を確認したうえで、単独でPINコードを入力し決済処理を完了させることができる。動画の音声で判断する限り、PIN入力時の数字は音声で読み上げていないのでセキュリティはギリギリセーフか。金額を聞かれたくない場合もありそうだが。
この端末は国際ペイメント企業5社によって策定されたセキュリティ保護基準であるPCI PTSに準拠。まず北米およびブラジルで展開されるという。

アクセシビリティの観点では、スマートフォンを用いるQRコード決済や電子マネーは柔軟性があるが、利用できる店舗はまだ限定的であり、そもそもスマートフォンを持っていなければ利用できない。
Verifone Navigatorのような製品が普及すれば、視覚障害者の経済活動は確実にスムーズかつ安全になるし、その恩恵は幅広い世代にもたらされるだろう。


よりアクセシブルなキャッシュレス社会を


一方、決済に困難を感じているのは視覚障害者だけではない。手が使えず端末を操作できない、認知障害などサインや暗証番号の記憶が困難、といった利用者には使えないのも確か。より包括的なキャッシュレスの仕組みを実現するためには顔認証など生体情報を用いる決済などの普及も必要になるだろう。

キャッシュレスは多くの人々には確かに便利であり経済効率性の向上にもつながるかもしれない。その恩恵を誰しもが受けられるよう、全方位を向いたアクセシビリティの確保には最優先で取り組んでほしいところ。

……そう考えるとリアル店舗における「現金」の信頼性に裏付けられたパワーは協力である。現金さえ出せば誰が支払うかなんて関係ないし、プライバシーの問題も発生しない。
よくできてるよ、現金。
まあ「現金が一番」なんて老害扱いされそうだけどねえ。

関連リンク:


2019年1月21日月曜日

ビデオゲームとアクセシビリティにまつわる最近のトピックス

※このブログのゲーム・アクセシビリティに関する記事はこちら

また一時期書いていたTopicsでも頻繁にゲーム・アクセシビリティに触れていますのでこちらもどうぞ。


2019年に入ってから、ゲーム関連のアクセシビリティ・トピックスが目立つようになってきたので、ちょっとピックアップ。
今年は米国を中心にゲーム関係で色々な動きが見られるかもしれない。少なからず日本への影響もあるだろう。多分。


CVAA法に基づくアクセシビリティ実装義務化


2019年1月1日から、米国内で開発されるビデオゲームは、CVAA法(21 世紀の通信と映像アクセシビリティ法)に基づくアクセシビリティ機能の実装が義務付けられる。これ以前にリリースされた作品でも、大幅なアップデートを実施する場合は対象となる。また2018年12月末をまたいで開発されている作品については可能な限り準拠が求められるが、開発状況により考慮される。
CVAA法に違反しているとしてクレームを受けたメーカーは、FCCを介して調停を受けることになり、ソフトウェアの改善に努めなければならない。調停が不調に終わった場合は最悪ペナルティが課されるという。

CVAA法は放送・通信などの最新技術のアクセ
シビリティを規定する法律で、2010年にオバマ大統領によって調印された。ビデオゲームについては業界団体からの要請により摘要を猶予されていたが、その期限が2018年末に切れた。
対象になるのはゲーム内に設置されたチャット機能(テキスト、ボイス)、およびチャットに関連するユーザーインターフェイス。配色や音声読みあげ、クローズドキャプションなどガイドラインに沿ったアクセシビリティが確保されなければならない。
この法律ではゲーム内容そのものへのアクセシビリティは求めていないが、チャットはオンライン対応の作品であれば実装されていることが多いため、影響は小さくないだろう。

関連リンク:


歴代ブラインド・ゲームの紹介


2019年1月4日は、初めての「世界点字デー」。
これを記念して、ゲーム情報サイト「GameRevolution」が、歴代ブラインド・ゲームの名作を紹介する記事を公開している。
1997年にセガサターンでリリースされた「リアルサウンド風のリグレット」を皮切りに、コンシューマ機からパソコン、スマートフォン、さらにはスマートスピーカー用まで全10作品が紹介されている。
ゲームボーイアドバンスでリリースされた任天堂の「bit Generations Soundvoyager」、リメイクしてSwitchで出ないかなあ。

余談だが、ずいぶん前(もちろん見えていた頃)に読んだ吉田戦車「はまり道」のネタに「ラジオゲーム」というものがあったことを憶えている。クラシックなラジオにコントローラーを繋いだビジュアルだったが、今にして思うとすごく欲しいガジェットだ。

関連リンク:


ゲームのアクセシビリティに関する注目記事



2018年におけるゲームのアクセシビリティまとめ。最大の収穫は「Xbox Adaptive Controller」の登場、最もアクセシブルなゲームとして「Marvel’s Spider-Man」と「Celeste」が挙げられている。一方で任天堂に対してはアクセシビリティへの取り組みが不足していると指摘。
そういえば少し前、全盲の少年が「ゲーム天国」をクリアしたという手紙に対して任天堂が返事をしたという話題が美談として報じられたが、そこからゲームをアクセシブルにするといった動きに繋がらなかったのは残念に思ったのを今思い出した。ゲームがアクセシブルなら、もっと多くのゲーマーが楽しめるのにね。


この記事では障害者のゲーム参加の現状、人気ゲームタイトルに見られたアクセシビリティ問題、Xbox Adaptive Controllerなど最近のゲームにおけるアクセシビリティの話題を挙げ、その必要性と解決策を提案している。



独自に障害ゲーマー向けコントローラーを製作する青年の活動。記事中にあるEA Sportsの「Madden football]のアクセシビリティ・オプションの話が興味深い。

2019年1月20日日曜日

「WeWalk」に白杖の未来像を妄想する。



「WeWalk(ウィーウォーク)」は、トルコのNGO、YGA(Young Guru Academy)出身者によって設立されたスタートアップと、家電メーカーVestel社が提携して開発している視覚障害者のためのスマート白杖だ。
スマート白杖とは、各種センサーを内蔵した白杖のこと。障害物を検知しユーザーに警告する機能を持った補装具である。すでにいくつかの製品が実用化されており、一般向けに販売されている。

WeWalkもこれらと同様、超音波センサーを用いて障害物を検知し、振動や音声で危険を知らせてくれる。停車中のトラックや張り出した看板など、上半身エリアにある物体を探知できる(最長4メートル)。1,000mAhのバッテウィーを内蔵し約5時間の使用が可能だ。

ここまでは従来のスマート白杖と大きな違いはみられない。最大の特徴がBluetoothによる通信機能である。これにより白杖とスマートフォンをペアリングし、専用アプリ(AndroidおよびiOSに対応)でさまざまな機能が利用できるという。
たとえばGoogle Mapsと連動したナビゲーションや白杖に内蔵されているマイクを通じて音声アシスタントを呼び出すこともできる。アプリをコントロールするため、グリップにはタッチセンサーを搭載。その他のセンサー類の有無は公式ページには記載がないが、概要を読む限り杖の方向や1を測定する何らかの仕組みは存在する可能性がある。

従来のスマート白杖は、どうしてもセンサーの向きや杖の動きにより障害物の検出にムラが出やすく、使いこなすには訓練とコツが必要だった。WeWalkではそのあたりの使い勝手が木になるところ。
ただそれ以上に外部機器と連動した拡張性に高い可能性を感じてしまう。高精度な衛星測位やBLEビーコン、QRコード、AI画像認識(カメラが要るか)、深度センサーなどと連携させれば……そんな妄想を掻き立ててくれる。

視覚障害者にとって白杖は身体の一部のようなものだ。白杖の進化は、そのまま「身体の拡張」を意味する。WeWalkが視覚障害者をどこまで解放してくれるのか、期待は高まるばかりだ。
ただ白杖って結構ヘタルシ案外簡単に折れるので、着脱できるユニット化してほしいなあ。お気に入りの白杖をスマート化できれば最高なのに!

WeWalkは2018年4月、、革新的な技術や製品を表彰するEdison Awardsのヘルス&ウェルネスカテゴリにて金賞を受賞。そして2019年1月のCESへの出展に続き米国ヘレン・ケラー財団などの協力を得てニューヨークでの実証実験を開始した。

購入はIndiegogoにて(349ドルから(。日本への発送にも対応しているが、電波法をクリアしているかは確認できなかった。アプリも日本語に未対応なので今後の正式サポートに期待したい。また製品を障害者団体に寄贈する出資キャンペーンも実施している。
順調に進めば、近日中に出荷が開始される見込みだ。


関連リンク:

AppleのAirPodsが盗聴器に!?「Live Listen」にまつわる騒動。


完全左右独立型ワイヤレスイヤホン「AirPods」は、近年Appleがリリースしたものの中でも、もっとも成功した製品の一つだろう。しかし海外では、この大人気デバイスにまつわるちょっとした騒動が怒っている。

iOS12で追加された新機能の中に「Live Listen(ライブリスニング)」がある。これはiPhone本体のマイクから拾った音をAirPodsでリアルタイムで聴くことができる聴覚サポート機能だ。
聴こえにくいユーザーが補聴器の代わりとして、話者の声を増幅したりテレビの音声を聞きやすくするといった用途が想定されている。Live Listenの音声はiPhoneの音量ボタンで簡単に調節可能だ。
またLive Listenを有効にしてAirPodsを交換すれば、短距離トランシーバーのように動作するのでライブやイベント会場など騒音が激しい場所で会話するときにも使える。まあAirPodsを交換するには両者の関係性には注意したいところだが。
Live Listenの設定・使用方法は以下のサポートページで解説されている。


iPhoneとAirPodsで聴覚を拡張するLive Listenだが、海外ではこの機能についてちょっとした議論が噴出しているという。つまり「盗聴のリスクについてだ。
英Independentの記事は、Live Listenを使った盗聴の可能性について、SNSからさまざまな意見が寄せられていることを伝えている。


確かに、AirPodsの接続が維持される範囲であれば、聴いている本人がその場にいなくても、iPhoneがある場所の音声が聴けてしまうため、原理的には盗み聞き可能だ。Live Listenが有効担っている間は、iPhoneの画面上端に赤い帯が表示されるが、この機能の存在を知らなければ気がつかない可能性は高い。

ただよくよく考えてみると、いまどきiPhoneを置いたまま部屋を離れるのは不自然な気もしなくもない。それに盗聴するのなら(してはいけないが)、ボイスレコーダーを使うなどもっと効率的な方法がある。Live Listenは記録も残せないではないか。
どちらかといえば悪戯半分でこの機能を使い、結局バレて友人や家族から不信感を持たれるリスクの方が高いようにも思える。
この議論についてAppleからは特に反応は出ていないようだが、先ほどのサポートページには以下のような記述がある。

>ライブリスニングは、騒がしい場所で話を聞き取る場合に便利です。
>部屋の向こう側で話している人の声を聞き取ることもできます。

ちゃんとこういう使い方について認識はしているようだ。ただこれは「盗聴」ではなく、会話中にちょっと離席しても、「合意のもとで」音声を聞ける、という意味だろう。

いかなる技術も、結局はユーザーがそれをどのように使うかで、毒にも薬にもなる。Live Listenも、聴こえにくいユーザーを助けコミュニケーションを円滑にすることもできる反面、聞かれたくない会話を盗み聞きされてしまう機能にもなってしまう。

Live ListenはAirPodsとiPhoneを持っていれば誰でも使えるため、影響は小さくない。問題はこの機能がほとんど知られていないということだろう。存在が広く知られれば「iPhoneを置きっ放しにしたまま黙って離席」みたいな明らかに怪しい行動は、やりにくくなるはずだ。

Appleには、この機能のポジティブな利用法をアピールしつつ、悪用されるリスクをしゅうちしていただきたいものだ。

2019年1月19日土曜日

Web画像の代替テキストを自動解析する拡張機能「Caption Crawler」。


米マイクロソフトリサーチ(MSR)は、Webページ内のイメージを解析し、自動的にキャプションを付与するEdge/Chrome用拡張機能「Caption Crawler」のベータ版を公開した。WindowsのEdgeブラウザおよびGoogle Chromeにインストールして試すことができる。筆者はmacOS版Chromeにて動作を確認した。

この拡張機能は、ブラウザに読み込まれたイメージの中からAltタグで代替テキストが指定されていないものを抽出し、専用のクラウドサーバへ送信。Bingの画像認識エンジンを用いて、イメージの内容および参照元URLをフィードバックする。
認識された内容はページ内のイメージに自動的にセットされ、スクリーンリーダーを用いて読み上げることができる。複数の結果が返された場合はショートカットキーでリストアップして読み上げルコとも可能だ。

使い方は、まずこちらのサイトへアクセスしてEdgeもしくはChromeに拡張機能をインストールする。デフォルトでは、アクセスした全てのサイトでこの機能が動作するようになっているが、設定で任意のサイトもしくは拡張機能アイコンをクリックしたタイミングで動作するようにも変更できる。

Caption Crawlerを有効にしてWeb中の代替テキストが指定されていないイメージにスクリーンリーダーのカーソルを合わせると、通常はファイル名が読み上げられるところ、以下のような内容が読み上げられる。

Auto Alt: Caption has been requested
Caption Crawlerが画像解析をリクエストした状態のイメージ。

Auto Alt: No caption available
解析結果が得られなかったイメージ。

Auto Alt: produkt_logo_0001_2
(from: www.drink-department.de)
解析結果が得られたイメージ。どうも何かのロゴ画像のようだ。

複数のキャプションが得られている場合、次のキャプションを読み上げるには
Control + Shift + ‘U’
を押す。またキャプションのリストを表示するには、
Control + Shift + ‘Y’
でキャプションのリストから選択できるようだ。ただし筆者は未確認。また、
Control + Shift + ‘H’
でそのイメージの解析内容の詳細をポップアップする。

またCaption Crawlerのオプションでは、晴眼者が動作を確認できるように、イメージに解析ステータスを示すカラー枠を表示させる機能も用意されている。ショートカットキーの動作もカスタマイズできる。

少し試してみた範囲では、代替テキストが指定されていないイメージの1割程度で解析結果が返ってくる印象。これはクラウド側の学習データ次第で変化するだろう。
まだベータ版で解析されるイメージもわずかではあるものの、これまで意味不明のファイル名しか読み上げられなかったことから考えれば、大きな進歩感を体験できる。
このプロジェクトはMicrosoftが推進する「AI for Accessibility」の一環。研究の経緯はこちらの記事でも読むことができる。

関連リンク:


360セルの衝撃。点字版Kindle、「Canute 360」。


Canute 360
Canute 360画像引用元

英国Bristol Braille Technology社が現在開発中の「Canute 360」は、「点字電子書籍リーダー」にカテゴライズされる製品だ。点字データを読み込ませることで、視覚に障害を持っていても指先の触覚を使って読書を楽しむことができる。
最大の特徴は、40セル X 9ラインというかつてない情報量。市販される点字リーダーとしてマルチラインに対応するのは世界初という。いわば「点字版・Kindle」といった製品だ。

視覚に障害を持った専門家や学生にとって、点字資料の扱いは大きな悩みのひとつ。点字印刷されたものは必要な資料のごく一部であり、仮に存在していたとしても物理的な問題がつきまとう。要するに分厚くて重いのだ。この物理的問題を解決するのが点字を機械的に表現する点字ディスプレイだが、現在一般的に流通している製品は1行/40セル程度で、大量の資料を読んだり、特に数式や楽譜といった内容を効率的に読むのは困難。
9行x40セルを備えるCanute 360は、点字印刷と点字ディスプレイの長所を併せ持った画期的な製品と言えるだろう。

開発が始まったのは2012年。2018年初頭から英国内および米国のAPHNFB、カナダのCNIBの協力を得てユーザーテストが実施されている。2018年9月にはNESTA Inventors Prizeを受賞。現在も続いているテストが終わり次第、2019年中には製品として出荷される見込みという。

Bristol Braille Technology社の代表でCanute 360の開発者、ED ROGERS氏へのインタビューによると、Canute 360の機能はとてもシンプルだ。点字データをコピーしたSDカードもしくはUSBメモリを本体にセットすれば、その中のBRFファイルを読み込みピンの隆起で点字を表現する。ピンを動かす仕組みは従来の製品と比べ簡素化(アクチュエーターの数が少ないらしい)されており、動作はやや遅いものの低コストという。ユーザーの操作は「ホーム」「進む」「戻る」のナビゲーションとファイル選択ボタンが基本。Bluetoothもストレージもバッテリーも搭載していない、まさに「点字データを読む」ことに特化したデバイスだ。その結果、点字リーダーとしてはかなりリーズナブルな価格(曰くハイエンドなノートPCくらい)での販売を予定しているとのこと。
マルチライン点字であると同時に、点字デバイスの価格を抑えるという2つの意味で、視覚障害者へのインパクトは小さくないだろう。

寸法は36.5 X 18.5 X 8 cmと厚みのあるPC用キーボードくらいの大きさ、重量も2.8 KGとなかなかの重厚感。電源が必要であるためモバイルでの用途は考慮されていないものの、自宅やキャンパス、研究室の間を持って歩く程度ならさほど苦にならないだろう。

現時点ではスタンドアロンのデバイスとして開発・テストされているCanute 360だが、ハードウェア的にはUSB-B端子を経由してパソコンやスマートフォンと接続できる設計になっている。将来的には点字ディスプレイのような用途も考え られているようだ。ただマルチライン点字という前例のない製品だけに、スクリーンリーダー開発側とのコミュニケーションが必要、とED ROGERS氏は語っている。
マルチラインの利点を活かせば、Webの表組みを2次元的に表現するなど、従来の点字ディスプレイや音声読み上げでは実現できなかった方法で情報を受け取れるようになると期待される。

またデバイスを制御するプログラムはRaspberry PiとLinux上で動作しており、オープンソースとしてGitHubから利用できる。有志の開発によって対応するファイル形式の拡張や用途が明らかになっていないビデオ出力やオーディオ出力も、活用されるようになるのかもしれない。

視覚障害者の情報入手手段として、点字は重要な技術だ。音声読み上げは手軽ではあるが、例えば会議で発言中に資料を読むといったシーンには向いていないし、長時間音声を聞き続けるのは耳への負担も大きい。
一方で点字が読める視覚障害者の割合は減少傾向にある。恒例になってからの点字習得が困難なことや、中と視覚障害者の点字教育の場が限られているという問題もある。だが点字を読めるようになりたいと考える視覚障害者も少なくない。
低価格の点字デバイスの普及は、このような状況を変えるひとつのきっかけになるのかもしれない。

関連リンク:

2019年1月16日水曜日

全盲でも自由に外食できる未来が来る!?〜マクドナルドと「Right Hear」。



2019年1月、イスラエルのスタートアップRight Hear社は、ファーストフード大手マクドナルドと提携し、イスラエル国内にある180店舗に同社が開発している視覚障害者向けナビゲーションシステム「Right Hear」を導入することを発表した。ファストフード・チェーンでは世界初の試みだという。

これは、ビーコンとスマートフォンの専用アプリを用い、音声による現在地や施設までのターン・バイ・ターン・ナビゲーション、施設情報の取得、緊急通報などを提供するシステム。アプリはiOS、Androidに対応し、無料でダウンロードして利用できる。

Right Hearの仕組みはまず施設の各所に専用のビーコンを設置し、案内情報などを登録しておく。利用者がアプリを起動して店舗の近くに移動すれば案内スタート。カウンターや座席、トイレなど店内のいきたい場所を指定すれば、音声によるナビゲーションでその場所まで安全に案内してくれる。メニューなどの情報も音声で確認できるので、視覚に障害を持っていても単独で自由にサービスを利用できる。

視覚障害者が行き慣れていない外食店を利用するには、店内の移動やメニューの確認など単独では難しい部分が多く、誰かに同伴をお願いしたり、ショップのスタッフの助けを借りるしかなかった。しかし常に同伴を依頼できるとは限らないし、近年では労働者不足で店内を案内してくれるスタッフが常駐していないことも多く、食事をしたくても諦めて退店せざるを得ないケースも少なくなかった。結果単独での外出を躊躇してしまい、視覚障害者の社会参加の障壁の一員にもなりかねない。
Right Hearのようなシステムが導入されることで、視覚障害者が一人でも気兼ねなく外食を楽しめる手段が増えることは間違いない。これはこれまで来店をためらっていた顧客を呼び込み利益を最大化させるだけでなく、テクノロジーによる障害者の自立支援のショーケースとして、社会の包括製を高める効果もあるだろう。
ビーコンを用いて、キャンペーンや観光案内などの情報を提供すれば、幅広い顧客に対するマーケティングへの応用も考えられる。さらにRight Hearは端末の言語設定に合わせた多言語による情報提供にも対応しているので、インバンウンド需要も取り込めるだろう。

Right Hearはすでにイスラエルのほか、米国など世界各国の数百以上の施設に導入が進められている。日本でも同様のシステムに産総研による「NavCog」や小規模なプロジェクトがあり、研究・開発が進められている。コストや安全性など多くの課題は考えられるが、今回のマクドナルドの試みが広がりを見せれば、日本国内への影響も期待できるかもしれない。

関連リンク:

2019年1月14日月曜日

[雑記] こわい「音声認証」のお話。(共感不要)


中と、それも急速に視力を失ったことで、それまで知らなかったさまざまな体験を(望む望まないに関わらず)してきた。その中には生命に関わるようなことから、実に些細なことまで枚挙に暇はない。
Webにおける「画像認証」も、そのうちの一つ。
無論画像認証自体は見えていた頃から知っていたし、面倒くらいに思っていたが、いざ見えなくなるとこれが実に不条理なほどのバリア感である。近年ではパズル認証とか、見えなければ絶対に突破できないシロモノも台頭してきており、視覚障害者を悩ませ続けている。認証自体を否定するつもりは毛頭ないが、代替手段などアクセシビリティの確保はお願いしたいところである。
おっと、今回はそんな話ではない。
Googleの画像認証「reCAPTCHA」に代表されるユーザー認証に含まれている「音声認証」の話である。ブログの投稿フォームやWebサービスのサインアップ画面で、ロボットによるアクセスを防ぐための仕組みだ。誰しも一度は経験したことがあるだろう。

reCAPTCHAは、まず謎のアルゴリズムでアクセスしたユーザーをロボットでないか判断。疑わしいと判断すると、おなじみの画像認証を求めてくる。そしてこの画像認証に用意されているのが「音声認証」だ。視覚障害者や失読症のための代替手段である。
音声で認証を行うには、「音声で確認」をクリックし、「再生」ボタンで聞こえたフレーズを入力。正しければ認証を突破できるという流れだ。このフレーズは英語なのだが、筆者は正直、リスニングも単語力も貧弱で、聞こえた音声から思いついた、かつ知ってる単語を適当に入力することで奇跡的に突破できている。突破するたびに、なぜ今ので通過できたの?とモヤモヤすることが多いが、これこそがGoogleの技術力だと自分を納得させている。ビバGoogleの謎技術。
reCAPTCHAのデモページはこちら。リロードしまくれば音声認証を体験できるはず。

で、ここからが本題。
わたしは、reCAPTCHAの音声が、ちょっと怖いのである。
音声のないようは基本的に、サーというホワイトノイズの端々に、男性・女性の声でフレーズが混じる感じなのだが、声のくぐもった感じとか、声が突然途切れるような感覚がちょっと苦手というか不気味というか不穏に感じて怖くなる。この感覚、お分かりになるだろうか。どうも筆者は「人の声がブツ切り」になるのがだめらしい。

この感覚は、もしかしたら自分だけなのかもしれない?
そう思っていたのだが、YouTubeに以下のような動画が投稿されていた。


よかった、音声認証が怖いのは自分だけではなかった。
というか今のreCAPTCHAよりも全然怖いぞこれ。こんなの夜中にいきなり利かせられたら椅子から崩れ落ちそうである。
ただ、いろいろなオーディオ・キャプチャの音声を聞いていると、なにか一種の現代音楽のようにも聞こえてくる。「ミュージック・コンクレート」的なものだろうか。
確かに急にこれ聞かされるとびっくりするけれど、現代音楽、アートと解釈すればちょっと平気になってきた。いいぞ。もう怖くない。そういや初めてThe Beatlesの「Revolution 9」を聴いた時はびっくりしたもんなあ。あれを思い出した。
むしろこの音声をMIXして、誰か素敵なトラックを作ってくれないものだろうか。ぜひ聴きたい。もう、認証音声はWebカルチャーであるとか言い出しかねない。危険だ。

というわけで、見えない・見えにくい方はもちろん、見えてる人も、画像認証に遭遇したら、音声認証を試してみてはいかがだろうか。運が良ければ一期一会のアバンギャルドな世界に出会えるかもしれない。でもあまりリピートするとロックされるので程々に(一定時間で解除される)。

……などと書いていたら、こんなニュースが。


どうやらAIと音声認識を駆使して、reCAPTCHAの突破に成功したようだ。ニュースを掘っていくと、Googleと研究者による「いたちごっこ」が延々と繰り返されている模様。AIによる画像・音声認識の進化が認証技術を上回れば、もうこのような仕組みは無為にになるだろう。Googleはこの状況を打破しようと、画像や音声に依存した認証から、ユーザーの行動パターンなどを解析した認証方法の開発を加速させているようだ。もしかしたら、この不穏な認証音声も近いうちに聞くことができなくなるのかもしれない。

認証のてまが省かれるのは、視覚障害者的には大歓迎なのだけど、うーん、それはそれでちょっと寂しいかもまあ。

2019年1月11日金曜日

iPhoneのVoiceoverが「黙って」しまった時の対処法。


スクリーンリーダー使いにとって、何が一番あわてるかと言えば、端末を操作中にいきなり何も喋らなくなるという現象だろう。
なにせ操作のすべてもしくは大部分を「音声」に頼っているわけで、見えているユーザーに例えるならば、突然パソコンやスマホの画面が真っ暗になったと同じである。
いったい何が起こったのか、パニックになること間違いなしだ。

だが、ことデジタル機器で発生した現象には、必ず「原因」がある。
無意識に何か特別な操作をしてしまったとか、時にはなんらかの障害が発生したのかもしれない。重要なのは、冷静にそれらの原因に思いを巡らせ、一つ一つ確認していくことだ。多少のトラブルは、鼻歌混じりの余裕のある態度で臨む方がストレスも少ない。

さて、iPhoneで突然Voiceoverが喋らなくなる原因は実にさまざまだ。
ここではその原因を「よく起こる順」に解説していこう。
なおこれらの対処法は、ほぼ全盲の筆者の実体験をもとにしたものである。残存視力の有無などにより、多少の違いはあるかと思われるのでご容赦いただきたい。

1.音量が最小になっている

知らないうちに音量ボタンに指が触れてしまったり、カバンやポケットの中で何かに音量ボタンが当たるなどが原因で、iPhoneの音量が最小になってしまうことがある。
まずは「音量を上げる」ボタンを押して、音が出るか確認しよう。

2.読み上げがオフになっている

これは「Voiceoverあるある」である。
1本指ダブルタップで決定の操作をしたり、2本指ダブルタップで再生/停止の操作をした時に、うっかり他の指を画面に乗せてしまい、「読み上げオン/オフ」操作である「「3本指ダブルタップ」を実行してしまうと、Voiceoverは黙ってしまう。
こういう時は、慌てずもう一度「3本指ダブルタップ」すれば、読み上げるようになる。

3.Bluetoothイヤホンが知らないうちに接続されていた

Bluetoothイヤホンやスピーカーを「たまに」使うユーザーは要注意。
たとえばカバンの中に入れておいたBluetoothイヤホンの電源ボタンが何かの拍子に押されてしまい勝手に接続されてしまうと、iPhoneのスピーカーから音が突然鳴らなくなる。常時Bluetoothオーディオデバイスを使っていればすぐ気がつくのだが、その存在すら忘れていたりすると、気がつくのに結構時間がかかる。
復帰させるには、心当りのあるBluetooth機器を探し出し、電源を切手みよう。もし他にBluetooth接続できる端末があれば、そこから今iPhoneに接続している機器の名前くらいは調べられるかもしれない。

4.Voiceoverの音量が小さい、または言語の設定が不適切

Voiceover読み上げの音量は、iPhone本体の音量とは別に設定できる。
もしVoiceoverの音量が「0%」に設定されてしまうと、読み上げの音声は全く聞こえなくなる。この設定はローターで行うため、うっかり誤操作してしまい、音量を下げてしまう可能性もありうる。
ただ読み上げ音量が0%になると、ローターを操作する時の読み上げも聞こえなくなるので、ローター項目を一つずつ試して音量の復帰を試みるしかない。
具体的には、スクリーン上を2本指でタップしたまま「ツマミを回す」ジェスチャを実行、続けて「1本指で上にスワイプ」。このジェスチャを繰り返して行けば、どこかで音量アップの音声が聞こえるはずだ。健闘を祈る。

またVoiceoverの読み上げ音声の「言語」設定が、デフォルト(通常は日本語)になっていないと、読み上げるテキストによっては読み上げが無音になることもある。これもローターから「言語」を変更すれば復帰する。

※この項の設定はVoiceoverのローターに「音量」「言語」が追加されている場合に発生するので、この項目がなければスルー上等。

5.有線イヤホンが接続されている

これはかなりの「うっかり」ケースだが、有線イヤホンが接続されたりしていないだろうか。接続されていると、もちろんiPhoneからは音声は出ない。

6.Voiceoverがフリーズ?

ごくまれに、Voiceoverがフリーズしたような状態になることがある。
Voiceoverを再起動することで復帰するかもしれない。Siriを呼び出し「ボイスオーバー オフ」、続けて「ボイスオーバー オン」で再起動できる。
ホームもしくはサイドボタンのトリプルクリックにVoiceoverショートカットを登録しておけば、より簡単にVoiceoverを再起動できる。
それでも復帰しない場合は、iPhoneの強制リセットを試してみよう。
リセットの方法はこちらのサポートページを参照。

7.iPhoneがフリーズ!?

もしかしたら、iPhoneそのものがフリーズしてしまった可能性もある。
いろいろ手を尽くしても、Siriを呼び出してもうんともすんとも言わない場合は、この悲しい現実を受け止めなければならない。
リセットの方法はこちらのサポートページを参照。

8.電源が切れている/電池きれになっている

iPhoneのバッテリーが限界に到達すると、電源は自動的にオフになる。
それを知らずに操作しようとしても、当然ながら無反応であることはお分かりいただけるだろう。
改めて充電ケーブルをしっかり接続し、数分待って電源が入るか確認してみよう。
充電ケーブルや充電アダプタの接触不良などで、充電したつもりが全然充電されていなかった、なんてのはよくあるお話。充電を開始したら、出来るだけステータスバーの電池アイコンをタップし「充電中」と読み上げるかチェックする習慣をつけよう

9.ここまでくると、iOSもしくはハードウェアの障害かも?

さて、ここまで考えられる原因から復旧を試してもVoiceoverが喋ってくれないとなると、自体は深刻かもしれない。想定できるのは、

  • OSの不具合でiPhoneが起動しない
  • 起動はするがシステムの一部、例えば音声エンジンなどが破損している
  • ハードウェアが原因で音が出ない
  • ハードウェアが原因でiPhoneが起動しない

なんとも恐ろしいラインナップである。
こうなるともう単独で対処するのは難しいので、ヘルパーなりショップの助けを仰ぐべきかもしれない。でも、もう一度初めから落ち着いてチェックしてみてはいかがだろうか。
今は快調にVoiceoverを操っているあなたも!

いざという時パニクらないためにも、心の準備はしておきましょう。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...