2019年3月31日日曜日

[雑記] 忘れた「漢字」をスクリーンリーダーで思い出す手段を考えてみる。


筆者はほぼ全盲になって2年ほど経つが「自筆で文字を書く」ことがほぼ無くなった。
必要に迫られても大抵は代筆をお願いしているし、せいぜいクレジットカードの署名を書く程度。サインガイドを使えば、名前くらいはまだ書ける(はず)それ以外で自筆で漢字は書かない。

文章を読む時はスクリーンリーダーを使い、音声で情報を得る。
この時も基本的には漢字を意識することはほとんどない。一部の固有名詞でどのような文字が使われているか疑問に思うことはあっても、よほど気にならない限り調べることはしない。内容が理解できれば、それがどのような漢字なのかは気が向いたら調べる程度。これはMacのVoiceoverが漢字の詳細読みに対応していないことにも起因していると思う(言い訳)。いや、調べた方がいいとは思うのだけどね。「スクリーンリーダー訛り」とも言える変なクセがついてしまうので危険なのだ。この話はまたの機会に。

そして本題というか問題は、スクリーンリーダーで「文字を書く」場合。
自分用のメモならまだしも(事実かなり適当にかくことが多い)、SNSやブログ、ましてや仕事の原稿を書く場合は、どうしても漢字の使い方を意識しなければならない。
「晴眼者にも読みやすい配慮」が必要、というわけだ。

パソコンで日本語入力を行うには、かなを入力してスペースバーを押し、変換候補を選択する。この手順はスクリーンリーダーでも通常の操作と変わりはない。
だが一般ユーザーが変換する漢字を目視で選択・決定するのに対し、スクリーンリーダーでは変換候補に出てくる漢字の説明(詳細読み)を音声で確認して漢字を決定する。
たとえば「げんこう」と入力すると、このような候補が読み上げられる。(macOS標準IMEの例)

原稿 げんいんのげん,はら、げんこうようしのこう
現行 げんじつのげん,あらわれる、りょこうのこう,いく
減光 げんしょうするのげん,へる、ひかり,にっこうのこう
元寇 げんきのげん,もと、もうこしゅうらいのげんこうのこう

この説明を聞いて、入力したい漢字を選びながら、文字を決定していくのである。この詳細読みは「田町読み」と呼ばれており、多くのスクリーンリーダーに採用されている。
ちなみにmacOS Mojaveではバージョン10.14.2まではこの変換候補を一切読み上げないという恐ろしいバグが発生していた。現在(10.14.3)では不完全ながら復旧済み。詳細読みが行われない絶望感を理解いただけるだろうか。

あ、話が逸れた。

基本的にはこの詳細読みを使えば漢字の入力は問題なく行える。
筆者は数年前までは見えていたのでそれなりに漢字の「字形」をイメージしながら日本語入力している。詳細読みを聞きながら「ああこれこの字ね」と調子よく入力するわけなのだが、たまーに困るのが「詳細読みを聞いてもピンと来ない漢字。そういう場合はその漢字が脳内でイメージできていないことが多い。要するに忘れているのである。もちろん字形が思い浮かばなくても説明だけで判断できるものもあるが、微妙な漢字も結構ある。
知っているはずの漢字なのに思い出せない。「目で見られれば絶対思い出す」パターンがもどかしい。忘れたわけではない。思い出せないのだ。もうアラフィフですから。

巷では手書きの機会が減ることで漢字を忘れる人々も多いようだが、筆者はその日ではないようだ。さらに視覚的に漢字を認識できなくなったことで、漢字忘れのスピードが加速しまくっているのかもしれない。
まあとにかく、変換した漢字が正解なのか、確認する手段が欲しい。視力があれば一発でわかる「字形」を、スクリーンリーダーで確認する手段ってあるのだろうか。はてさて。

あれこれ考えた結果、Webb上にある「漢字辞書」が使えそう、と思い調べてみる。
確かに多くのWeb漢字辞書サイトには「書き順」の解説が掲載されているのだが、調べた範囲では全て画像もしくはアニメーションで表現されており、スクリーンリーダーで利用することはできなかった。がっかり。

そんな中「漢字辞典オンライン」というWeb辞書を発見。
ここでは書き順の説明はないが、その漢字を構成するパーツを分解して説明する項目が用意されている。ラッキーなことに音声読み上げも可能だ。。
たとえば「懸念」の「懸」という漢字を検索してみると、

  • 縣 心
  • 県 系 心
  • 県 丿 糸 心

という具合に漢字の要素を少しずつ分解して解説してくれる。
なかなかわかりやすいが、この説明だと分解された各パーツの位置関係がわからないのと、漢字によっては読み上げられない画像が用いられているので、オールマイティには使えなさそう。惜しい。

そこでもう少し調べてみると、田町読みの製作に関わった新潟大学工学部福祉人間工学科、渡辺研究室のページに「漢字の構成読み」というデータが公開されていることを発見した。これは視覚障害者の要望を受けて開発された、漢字のパーツと位置関係を説明する詳細読みデータである。まさに探していたそのものではないか!
Excel形式で公開されているデータをダウンロードして開き、先ほど例に挙げた「懸」を検索してみると、

(県の右に系(の下に心

という説明がヒットした。Web辞書と比べると「系」のパーツが分解されていない者の、パーツの位置関係がしっかり説明されているので漢字の形を頭にイメージできる。
視覚障害者が漢字をイメージする手段として、漢字の分解と位置関係の説明は、特に中途失明者にはかなり有効な手段に感じた。
パーツの形がわかれば、未知の漢字でも字形を思い浮かべることができそうだ。つまり見えなくても新しい漢字をマスターできる、という事実。実際「懸」なんて多分見えてた頃はかけなかったと思うけど、今なら字形がわかる。見えていた頃の自分にも教えてあげたいくらいだ。
この研究の論文(抄録)によれば、構成読みによる漢字の想起率は非常に高かったという。ちょっと納得。

ただ調べるたびにExcelシートを開いて検索するのは、やや手間に思える。もっと簡単に検索する方法があるのかな。現時点では手軽さではWebが上なので、Webで調べて解決しなければ「漢字の構成読み」を当たる、という手順が良さそう。
いちおう物書きの端くれとしては、漢字の記憶はできるだけキープしておきたい。これらの手段でマメに確認するクセをつけておきたいところだ。

「漢字」と視覚障害者の関わりは考えてみると興味深いテーマに思う。
中途失明者である筆者は、見えていた頃の記憶を元に漢字を「形」から連想するクセが残っているため、ここで挙げたような方法がしっくりくるわけだが、視力を失った時期によっては、漢字との対話方法も違ってくるのかもしれない。


2019年3月29日金曜日

デジタルコンテンツに「多感覚」をもたらす視覚障害者向け端末「Feelif」。

Feelif Pro(画像引用元

スロベニアのスタートアップFeelif社が開発した「Feelif」シリーズは、視覚障害者のためのスマートフォン/タブレット製品だ。従来のタッチ式デジタル端末に「触覚」を加えることで、これまでにはない新しいデジタル体験を提供する。

FeelifはSAMSUNG社のAndroidスマートフォン/タブレット端末をベースに、同社の特許技術である、着脱式の「触覚スクリーン」を追加。これに触覚・音声・振動オ最大限に活用する多感覚アプリケーションと、各種サービスをバンドルした製品である。
透明な触覚スクリーンには、スクリーンに触れた指の位置を検知できるグリッド(格子状の凹凸)や、点字を習得するためのドットなどがあしらわれており、Androidのスクリーンリーダー(Talkback)とバイブレーションを連動させることで、図形や線などを体感できる工夫が施されているという。

画面を目視せずに凹凸のないタッチスクリーンを操作しようとしても、今画面のどの位置に触れているか認識するのは難しい。そのため一般的なスマートフォンやタブレットで利用できるスクリーンリーダー(iOSならVoiceover、AndroidならTalkback)は、画面のどの場所をタッチしてもきちんと操作できるように設計されている。
この「今どこを触れているか」を触感でしる手助けをしてくれるのが、Feelifの触覚スクリーンに備えられているグリッドだ。たとえば画面に表示されている図形を効果音と振動にガイドされながら指でたどる場合、グリッドの触感を頼りにその座標を確認することで、その形をイメージしやすくなる。


Feelifのラインナップ。


Feelifのラインナップはスマートフォンの「Gamer」、廉価タブレットの「Creator」、そしてハイエンドの「Pro」の3モデル。それぞれのスペックを見てみよう。

Feelif Gamer(699€)
スクリーン:5,2型(720 x 1280ピクセル)
メモリ:2GB、ストレージ:内蔵16GB+microSD

Samsung SM-J730F/DSをベースにカスタマイズした視覚障害者向けスマートフォン。SIMカードをベット用意することで通話にも対応する。触覚スクリーンに20x10セルの「Feelif Gamer gridLines」を採用。Feelifの基本アプリケーションを用いて多感覚ブックやゲームなどを楽しめる。

Feelif Creator(1,499€)
スクリーン:9,6型(1980 x 800ピクセル)
メモリ:1.5GB、ストレージ:内蔵8GB+microSD

Samsung SM-T561をベースにしたタブレット端末。点字ドット付きの29x21セルの触覚スクリーン「Feelif Creator gridStandard」を搭載。基本アプリケーションに加えて、教育アプリ「Feelif Education」がプリインストールされる。

Feelif Pro(2,499 €)
スクリーン:9,7型(2048 x 1536ピクセル)
メモリ:4GB、ストレージ:内蔵32GB+microSD

Feelifシリーズ最高峰に位置付けられるタブレット端末。ベースとなるのはSamsung S3 SM-T825。高精細58x42セルの触覚スクリーン「Feelif Pro grid Professional」を搭載。「Feelif Education」に加え、Feelifシリーズで再生できる多感覚ブックを製作できる「FeelBook Maker」(晴眼者向け)がバンドルされる。


Feelifのオリジナル・アプリ。


この多感覚デバイスの特徴を最大限に引き出すのが、プリインストールされているFeelifオリジナルのアプリケーションだ。
これらのアプリはスクリーンノ触覚に最適かさレており、多彩な音(豊富・ユニークな効果音、タッチ位置に対応する音階など)、振動が触感と違和感なく連携するという。ユーザーは音と振動を感じながら、グリッドの触感により指の方向性を感じることで、コンテンツを思い通りに操れる。これはフラットなタッチスクリーンでは体験できないかもしれない。これこそがFeelifのキモといえるだろう。
Feelifアプリは大きく5つのカテゴリに分けられている。

  • Feelif Games:多感覚で楽しめるゲームアプリ集。
  • FeelBooks:サウンドと触覚で楽しめる電子書籍。
  • Feelif Applications:Webブラウザやカメラなどの実用アプリ集。
  • Feelif Education:タブレットモデルのみ。図形描画や点字学習ができる教育アプリ集。
  • FeelBook Maker:Proのみ。FeelBookを製作できる晴眼者向けアプリ。

これに加え、さらに「Feelif Platform」を通じて新しいアプリや電子書籍が提供される。対応言語は英語、ドイツ語、フランス語、トルコ語、そしてスロベニア語だ。日本から購入できるかは未確認。

現時点のラインナップを見ると、比較的低年齢層をターゲットにした教育・エンターテイメントが主な用途だが、今後もっと高度な教育アプリや音楽などの趣味系アプリが充実すると面白そうだ。
あ、書き忘れていたがFeelifは通常のAndroid端末としても、もちろん活用できる。

視覚障害者にとってスマートフォンやタブレットは情報を取得するための重要な手段だが、それに「触覚」が加わることで、どのような世界が広がるのか、とても興味深い。
市場規模を考えるとどうしても高価になるのは止むを得ないが、それに見合う体験ができるのであれば、多くのユーザーを獲得できるだろう。
今後のコンテンツ拡充に注目したい。

関連リンク:


2019年3月25日月曜日

[メモ] スクリーンリーダーでのYouTube視聴を快適に。)ショートカットキーとキャプション+文字起こし)


近年ではニュースやブログでも、テキストの代わりに動画で情報を発信しているメディアが増えてきている。そしてこれらの動画のほとんどはYouTubeを利用している。一般ユーザーなら再生ボタンをクリックして即座に動画を再生できるのだが、マウスを使わないスクリーンリーダーユーザーは、いちいち再生ボタンを探して操作しなければならず面倒。そこで覚えておくと便利なのが、WebでYouTubeを視聴する時に使えるショートカットキーだ。

YouTube,com上の動画はもちろん、Webに埋め込まれた動画でも、プレイヤーにスクリーンリーダーのカーソルをフォーカスすることでショートカットキーを用いた動画のコントロールが可能になる。
ショートカットキーの詳細はYouTubeのヘルプページで解説されているが、筆者の独断による、これだけは覚えておくと便利なショートカットキーをご紹介。

  • K:再生/一時停止
  • J:少し巻き戻しする
  • l:少し早送りする
  • M:ミュートの切り替え
  • 上下矢印:音量調節

加えて覚えておくと便利なショートカットキー。

  • 数字の0:動画の先頭に移動
  • 数字の1から9:動画の10%~90%の位置に移動
  • Shift+ピリオド:再生速度を上げる
  • Shift+カンマ:再生速度を下げる

ついでに、YouTubeのキャプション機能についてもご紹介。
筆者のように英語が苦手な人間にとって、日本語以外の動画の内容を理解するのは至難の技。英語なら再生速度を落とせば断片的に内容が入ってくることもあるが、そのほかの言語ともなるともうお手上げ。テキストの記事なら簡単に翻訳できるのにね。

そこで活用したいのがYouTubeのキャプション(字幕)機能。キャプションは聴覚のサポートが主な目的だが、スクリーンリーダーと併用することで副音声のようにも使うことができる(現時点でYouTubeは音声の切り替えには非対応)。
キャプションは翻訳することもできるので、外国語を日本語に翻訳して音声で聞くことも可能だ。

近年ではアクセシビリティ向上のため、あらかじめ手動のキャプションが用意されている動画が増えている。手動キャプションが含まれていない動画でもYouTubeの音声認識により自動的にキャプションが加えられている(アップロードされた時期などにより有効になっていないものもあるので注意)。

動画によっては微妙に手順が変わるが「設定」から字幕と翻訳を有効にする基本は同じ。設定する前に動画を一時停止しておこう。

  1. スクリーンリーダーのカーソルを動かして「設定」と読み上げたらReturnキーをおす。
  2. 上下矢印キーを押してキャプションの言語を選択しReturnキーをおす。「自動判別」とつけられた言語は音声認識でつけられたキャプションだ。もしここに日本語の主導キャプションが用意されていればそれを選択すればオーケー。
  3. 上下矢印キーを押して「自動翻訳」を選択してReturnキーをおす。さらに上下矢印キーで「日本語(一番下にある)」を選びReturnキーをおす。
  4. ESCキーを押して設定メニューを閉じる。

設定ができたら動画を再生してみよう。スクリーンリーダーが有効になっていれば、キャプションが音声で読み上げられる。キャプションの切り替えは「C」キーを用いる。
読み上げの音量はスクリーンリーダー側で調節。また「M」キーでミュートしてもキャプションの読み上げは行われるので、キャプションの聞き取りに集中したい場合はミュートした方がわかりやすい(場合もある)。

手動キャプションが用意されている動画であれば翻訳を使ってもそこそこ内容を理解できるが、自動判別の場合は内容によってはあまり役に立たないこともある。それでも断片的に翻訳されれば、多少は何かの手がかりになるかもしれない。音声認識の品質も日々向上しているようで、新しい動画ほど理解しやすくなっている気がする。

また字幕が含まれる動画をYouTube.comで開き、評価欄の「その他の操作」メニューの「文字起こしを開く」から字幕をテキスト形式で参照することも可能だ。これをまとめてコピーし、翻訳した方が効率的かもしれない。
また試してはいないが、日本語の自動キャプションとこの機能を使えば音声データの文字起こしにも使えるかも。YouTubeもどんどん進化しているなあ。


2019年3月22日金曜日

Orcam MyEye 2の可能性を広げる?専用の連携アプリが登場。


イスラエルのスタートアップOrCam Technologiesは、同社が開発する視覚障害者向け人工視覚デバイス「MyEye 2」と接続してさまざまな機能が利用できるiPhone用アプリをリリースした

MyEye 2はメガネのテンプル(つる)に装着できる超小型のデバイス。カメラが捉えた映像をAIにより解析し、テキストや人物の顔、紙幣やバーコードなどを認識して音声で読み上げ、視覚障害者の「目の代わり」をしてくれる。すでに日本を含め世界各地で販売されており、視覚障害者の情報取得をサポートしている。
MyEye 2はネットワーク接続を必要とせず、本体側面のタッチセンサーとジェスチャ、音声コマンドで全ての機能がコントロールできるのが特徴だが、一部の設定など本体だけではやや面倒なオペレーションも存在していた。そこでOrcam社はユーザーの意見を取り入れ、このアプリをリリースしたという。

このアプリはBluetoothを用いてiPhoneとMyEye 2を接続し、音声のコントロールや設定変更などが行える。アナウンスされているのは以下の機能。

  • 読み上げのコントロール。一時停止、巻き戻し、早送りなどを行う。
  • 音量コントロール。読み上げの音量を調節する。
  • 設定変更。Wi-Fi接続などの設定を変更する。
  • 電池残量の確認。MyEye 2のバッテリー残量を確認する。
  • ヘルプ機能。MyEye 2の操作説明を参照したり公式サイトへアクセスする。
  • MyEye 2を探す。接続範囲であれば、見失ったMyEye 2をビープ音で探せる。

目玉機能は「探す」機能だろうか。確かにMyEye 2は小型なので、うっかり見失うと見つけるのに難儀しそうだ。
このアプリを利用するにはバージョン8.2.81以上のファームウェアを導入したOrCam MyEye 2とiOS 11以上を搭載したiPhoneが必要。現時点では英語のみのサポートだが、順次他言語やAndroidへの対応も進められるとのことだ。

筆者の妄想としてはMyEye 2で認識したテキストやバーコード情報をiPhoneに転送して保存・共有したり、人物認識機能と連絡先をリンクして「Orcam MyMe」のような使い方ができると便利そう、と思ったりする。スタンドアロン動作はMyEye 2の持ち味ではあるが、スマートフォンとリンクさせることでさらなる活用法が出てくるかもしれない。
筆者にとっては(価格的に)まだ高嶺の花なデバイスだが、視覚支援技術の先端を突っ走るOrcam社の動向からは今後も目が離せないといえよう。

関連リンク:


2019年3月19日火曜日

[雑記] 鉄道の案内サービスにまつわるあれこれ。


2016年、視覚障害者のホーム転落事故が相次いで発生したことをきっかけに、鉄道事業者による視覚障害者のサポートが徹底されるようになった。筆者が駅でサポートを受けるようになったのはそれ以降なのでそれ以前の状況はわからないが、白杖片手に有人改札を通ると、ほぼ例外なく「案内サービス」の利用を聞かれる。
案内サービスとは人力により目的地の駅までリレーで手引き案内してくれるサービスのこと。視覚障害者に限らず、移動が困難な乗客をサポートしてくれる。

そんなこんなで、ほぼ全盲の筆者も度々利用させていただいております。
最寄駅(地下鉄)からJRのターミナル駅までは訓練を受けて単独歩行、それ以降は案内で移動するというパターンが多い。安全に移動できるのも頼もしいし、姿は見えねど案内してくれる人も色々でコミュニケーションが楽しかったりする。
てことで案内される中で気が付いた諸々をつらつらと書いてみたい。なおここでの内容はあくまでも筆者の経験とリサーチによるもの。鉄道各社の公式見解と異なる可能性もあるのでご了承いただければと思いますよ。


不用意に発生。年代当てクイズ。


手引きしてもらい乗車ホームに到着すると、まず案内係が降車駅に連絡する。そこでたまにそのやりとりを目の前できく機会があり、結構面白い。
いろいろな情報をやりとりしているのだが、その中に「利用者の外見」がある。
服装とか持ち物などを案内係の主観で報告するのだが、マスクしてたりすると「30代男性」とか聞こえてきて悪くない気持ちになる。ちなみに筆者はアラフィフである。
なおマスクなしではほぼ「40代」。まさにマスクマジックってやつだね。
にしても人によってはこの突然発生する年齢当てクイズに精神的なダメージを受けてしまうのではと思うのだがどうだろうか。ちょっとデリカシーが欲しいかも。

あと着てた服とかマフラーが思ってたのと違っていたという事実をこのやり取りで気づくことも何回かあった。ずっとブラックと思って使ってたバッグが実はダークブラウンだった、とか。ファッションチェックもしてくれるんだね。

降車駅のアナウンスはお断りできる。


乗る電車が到着すると案内係が校内アナウンスで、案内乗車があることを車掌に伝える。その際、何も言わないと「どの駅で降りるか」もアナウンスするのが通例。
おそらく連絡ミスなどによるトラブルを防ぐためのダブルチェックのためだと想像できるが、利用者によっては自分が降車する駅を代々的に公表されたくない場合もあるだろう。結構なプライバシー情報だと思うしね。
その場合は列車が到着する前に案内係にその旨を伝えればアナウンスを省略してくれるようだ。係員によっては確認されることもあるけど、用心深い人は覚えておくといいかも。

列車が遅延・運転中止した場合は?


先日、月1の通院のため案内サービスを利用したのだが、各所でダイヤが乱れまくり、大幅に到着が遅れた経験をした。乗車した列車の行き先も変更になってしまい、途中駅では他の路線に乗り換えるため多くの乗客が下車し車内はほぼ無人に(たぶん)。
列車は途中駅で停車しいつ動くかもわからない状態だ。実に不安である
だが案内をお願いしているため、むやみに動くのはどうかと思い、じっと動くのを待つ。幸か不幸か、運転を中止するのは降車駅。そして予定より1時間近く遅れて目的地に到着した。
すると、当然のごとく案内係が待っていてくれた。あー、一安心。

ここで疑問がふつふつと湧いてくる。
もし目的地の前で列車が運転を中止してしまったらどうなるのだろう?
別の機会に案内係に質問してみたところ、中止した駅でちゃんと案内係が待機してくれるようになっているらしい。そこで別ルートにリルートするなり引き返すなりできるようだ。なるほど。身を委ねるのが無難なようだ。

体調不良などのトラブルは?


では万一、列車に乗っていて体調が悪くなったりして降車したらどうなるのだろう?
その場合は下車した駅の駅員に連絡してほしいということだった。
ただ視覚障害者的には見知らぬ駅に降りて、すぐさま連絡できる自信はない。周囲に人がいればいいけど寂しい駅でぽつんと取り残される事態も考えられる。

となると電話で駅に連絡する手段しかないだろう。とりあえず筆者がよく案内を利用するJR東日本の連絡手段について調べてみた。
Googleマップ」には電話番号なし。「JR東日本アプリ」にも掲載なし(ちなみにこのアプリはVoiceoverでは非常に使いにくい)。おかしいなあ、と思っていたら衝撃の事実が発覚。なんとJR東日本は駅の電話番号を公開していないらしい。
なんてことだ。

見知らぬ駅に降り立ち、周囲に誰もいない。
そんな事態を想像すると下手に下車できないではないか。
何か他に連絡手段がないだろうか。歩ける元気があれば知人家族とビデオ通話するか「Be my eyes」で誘導してもらうくらいしか思いつかないし、身動きできないともはや119番するしかないのだろうか。いや落ち着こう。きっと何かあるはずだ。

……調べてみたら、6:00から24:00の間であれば、問い合わせの代表番号「050-2016-1600」から各駅に転送してくれるラシい。これか。たぶん解決。
鉄道会社によって対応や連絡手段は異なるので、不安であればあらかじめ連絡方法を確認しておいた方が良さそう。備えあれば憂いなし、である。

でも本当は鉄道会社にかかわらず位置情報で今いる駅に緊急連絡できる手段があればいいのにと思ったりしなくもない。

歩行スキルの鍛錬もお忘れなく。


ぼんやりとしたリサーチの結果を書いてみたが、どうなんだろう。このようなルールはどこまでマニュアル化されているのか興味がある。鉄道会社によってどれくらいの違いがあるのか、それとも共通したものがあるのだろうか。いつか取材してみたいものである。

案内サービスは視覚障害者が安心して色々な場所に行ける、とてもありがたいサービスだ。友人改札まで辿り着ければ、とりあえず目的地の改札までは安全に移動できる。このサービスがなければ視覚障害者の移動はかなり制限されるのではなかろうか。

とはいえ人手不足が叫ばれる昨今、案内サービスだけに依存してしまうのもリスキーと言えるかもしれない。駅や時間帯によっては思いがけずタイムロスしてしまうことも多いしね。
頻繁に利用するルートであれば、歩行訓練を受けて単独で利用できた方が時間的にも精神的にも余裕がある。それ以前に基礎的な単独歩行スキルを備えておくことは「手引きされやすさ」やトラブルが発生した時に対処するためにも必要と感じる。筆者も今より歩行スキルが未熟だったころ、案内されているのに電車とホームの間に落ちかけて迷惑をおかけしたことがあった。情けなや。
それと、「周囲に頼る。」スキル」も必要かもね。

安全第一は大前提として、TPOに合わせ、歩行訓練やガイドヘルパー、アプリ(将来的には屋内ナビゲーション)などと組み合わせて上手に利用したいものである。


2019年3月17日日曜日

代替テキストを補完するChromeの実験機能「get image descriptions」を試す。

※この機能はバージョン: 75.0.3756.0(Official Build)canary (64 ビット)で無効になっている模様。

2019年3月14日、Google AccessibilityチームはChromeに新しい視覚アクセシビリティ機能「get image descriptions(画像の説明を取得)」の追加をTwitterでアナウンスした。これは画像説明文がつけられていないWebbコンテンツ上のイメージをGoogleが解析し、その結果得られた説明をスクリーンリーダーで読み上げる機能だ。
現在この機能はChromeの実験バージョン「Chrome Canary」の最新版で公開されており、2019年の後半には正式リリースされる予定という。

代替テキストがつけられていない画像をAIによる画像解析技術を用いて説明する試みとしては、拙ブログでも紹介したMicrosoftの「Caption Crawler」や、AlibabaのECサイト「淘宝網」の例があるが、いよいよ本命の登場!といったところか。
というわけで、ワクワクしつつ、試して見ることにした。


Chrome Canaryのセットアップと機能の有効か


まずはChrome Canaryをダウンロードしてインストールする。
筆者はMac版をダウンロードした。実行環境はmacOS 10.14.3である。
起動してセットアップを終えたら、適当なページを開き、スクリーンリーダーのカーソルを画像にフォーカスしてコンテキストメニューを開く。Voiceoverなら「VO+Shift+’M’」。マウスが使えれば画像を右クリックでもOK。

するとメニューの中に「Google から画像の説明を取得」という項目があることに気づくはずだ。サブメニューから「常に使用」もしくは「今回のみ」を選択する。
「常に使用」を選択すると読み込まれたページに含まれる該当するイメージが自動的に処理される。画像単位で手動で処理する場合は「今回のみ」を用いる。

メニューを選択するとこの機能の説明と有効化を促すダイアログが表示されるので「有効にする」をクリック。これで準備完了だ。なおここでは「今回のみ」で実験している。


実際に画像解析を試してみる


代替テキストが含まれない画像にスクリーンリーダーのカーソルを合わせると通常は画像のファイル名が読み上げられるところを、

「ラベルのない画像
画像の説明がない場合に取得するには、コンテキスト メニューを開きます。」

と読み上げるようになる。
ここで画像のコンテキストメニューを開き、「Google から画像の説明を取得>「今回のみ」」を選択する。すると、

「イメージ 説明を取得しています…」

と読み上げる。
すこし待てば、イメージの解析結果が報告される。
ここではこのページで試してみた。楽天のスター・ウォーズ特集ページだ。
取得された画像の説明はこんな感じ。

イメージ R2-D2 , Darth Vader の画像のようです.
入園入学に ! スクールグッズ特集
& Lucasfilm Ltd . というテキストのようです

イメージ Water bottle の画像のようです.
- 3PO
STAR WARSSTAR WA
遠足やおでかけに ! スター ・ ウォーズ 水筒コレクション というテキストのようです

なんとびっくり。オブジェクトの認識だけでなく、画像に含まれる文字をOCR(光学式文字認識)でテキスト化してくれている。オブジェクト名はまだ英語だが、OCRはしっかり日本語に対応している。これは素晴らしい。
なおローカルのイメージをChrome Canaryで開いてイメージの説明を取得することも可能だ。ただ現時点ではまだセキュリティの問題が心配なので、実験する場合は画像の選定には注意しよう。

試した範囲では、オブジェクトの認識の精度はそこそこ。日本のランドマーク、例えば「スカイツリー」などは誤認識された(富士山は認識できた)。これは正式リリースまでにはしっかり学習されると期待したい。
またOCRは抽出される文字数に制限があるようだ。あまり長い文章は途中で切れてしまう。そのためOCRツール代わりに使うには厳しいかもしれない。それでも画像にしか含まれない情報の存在に気づかされるなど、かなりのパワーを感じた。

画像の説明を取得できるイメージは、原則として「代替テキストがないもの」に限られる。そのため代替テキストが設定されているイメージでこの処理を実行しても読み上げる内容は変わらない。だがしかし、イメージを別のタブで開いてフォーカスすると解析可能だ。そしてAIで解析した方が情報量が多かったりする。なんか微妙な気持ちになる。

なおこの機能を無効化するには、環境設定を開き「詳細設定」>「ユーザー補助機能」にある「Google から画像の説明を取得」をオフにすレバいい。


すでに実用レベルという印象


突如として公開されたChromeの画像解析機能だが、その機能はすでに実用的なレベルと感じる。もちろん説明されない画像も多いが、それは時間が解決してくれる問題だろう。
今まで知る由もなかった「代替テキストなしのイメージ」が一つでも多く説明され、さらにテキストまで抽出してくれる。情報ゼロの状態から一歩進められる意義は大きい。
まあ本当はコンテンツ提供者が代替テキストを用意してくれるのが一番なんだけどね。

それにしても先日の「Seeing AI 3.0」のExplore photo機能と立て続けに、視覚障害者にとってインパクトのある技術が、しかもすぐに体験できる形で提供され、筆者はとても感動している。視力が戻ったわけではないのに、明らかに「今まで見えなかったものが見えた」感覚を覚えている。まさにテクノロジーが身体を補完する瞬間だ。

さて、すっかり気に入ってしまったこの機能。Chrome Canaryは流石に常用はきついので、Safariと併用してみようと考えている。何かまた気がついたらこちらで報告したい。

関連リンク:


2019年3月13日水曜日

タッチで写真を探索できる新機能が楽しい!「Seeing AI」3.0リリース。



Microsoftが開発するiPhone用の視覚障害者向け画像認識アプリ「Seeing AI」がバージョン3.0にアップデートされた。日本からもAppStoreからアップデートすることができる。
今回のアップデートでは、以下の3つの機能が追加されている。

1.写真をタッチして探索


これまでもSeeing AIは、撮影した写真やフォトライブラリ内の写真を解析して「何が撮影されているか」を説明してくれていたが、さらに解析した写真をタップして、その場所に何が映っているかを探索(Explore)できるようになった。
認識されたオブジェクトや人物、含まれる文字などを、タッチと音声で位置関係を把握しながら確認できる。

・写真を撮影してExploreする場合
「Channels」から「Scene preview」を選択して写真を撮影し、解析結果の画面になったら「Explore photo」ボタンをタップする。

・フォトライブラリの写真をExploreする場合
「Menu」ボタンをタップして「Browse photos」をタップ。フォトライブラリから写真を開いて写真を解析し、「Explore photo」ボタンをタップする。

・Explore photoの操作方法
「Explore photo」画面が開くと、写真の向きや認識されたオブジェクトの数などのざっくりとした説明がアナウンスされる。あとは画面をタッチして、サウンドを聞きながら写真のどの位置に何が映っているかを調べることができる。
また1本指ダブルタップでメニューが表示さレ、前画面へ戻ったりテキストの読み上げを停止する設定などが行える。

これまでは写真に含まれるオブジェクトの種別や数は教えてくれていたが、それに加えて位置関係を知ることができるようになり、さらに写真の楽しみが広がりそうだ。
例えば旅先で撮影した写真を解析して花や建物、人物がフレームから外れていないか確認したり、セルフィー写真がちゃんと撮れているかチェックする、といった使い方もできるだろう。

2.iPadネイティブ対応


これまではiPhoneのみの対応だったが、このバージョンからiPadにネイティブ対応し、ユニバーサルアプリとなった。
先述の「Explore photo」機能はiPadの大きなスクリーンの方がより精密な操作ができるだろう。またiPhoneを持たないユーザーや、iPhoneを持ち込めない場所でもSeeing AIを活用できるようになる。

3.Channelsのカスタマイズが可能に


Seeing AIの認識モードはメイン画面の「Channels」から切り替えるが、これまではこの切り替えスイッチは順番が固定されていた。今回のアップデートでこの切り替えスイッチをカスタマイズできるようになり、使わない機能を非表示にしたり、順番を入れ替えられるようになった。

カスタマイズするには、「Menu」>「Settings」>「Reorder channels」を開き、Channelsのチェックボックスで機能の有効/無効を設定。ドラッグもしくはカスタムアクションメニューから並べ替えできる。


写真の楽しみ方が変わるかも?


他にも「People」の顔認識登録機能がメイン画面から行えるようになるなど細かい改良点が施されているようだ。肝心のAIも結構賢くなっているような気もしなくもない。この辺りはもうすこし検証が必要かも。

今回のアップデートの目玉はやはり「Explore photo」だろう。
まだちょっと触っただけだが、タッチと音声で写真を2次元的に楽しめる体験はかなり新鮮。色々な写真をインポートしてExploreしまくりたい衝動に駆られてしまう。
これまで視覚障害者が写真を理解するには「触図」を用いるしか方法がなかったが、タッチと音声によるSeeing AIの新機能は、触図の完全な代替にはならないものの、視覚障害者と写真の関わり方を大きく変えるものになるかもしれない。

日本語への対応は今回も見送られてしまったのは残念だが、この新機能だけでも体験してみる価値は大いにあり!と思いますよ。

関連リンク:

2019年3月11日月曜日

SXSW 2019で「BOSE AR」発表。AIRAとのコラボレーションで視覚障害者を支援。

BOSE Framesを身につけたAiraのディレクターGreg Stilson氏(画像引用元

音響ききメーカー大手・BOSE社が開発した「BOSE Frames」はサングラスと小型スピーカーが一体になったウェアラブルなサウンドデバイスだ。スマートフォンとBluetoothで接続し、音楽や通話を楽しむことができる。耳を塞がないリスニングスタイルも特徴的だ。
すでに米国では2019年1月から199.95ドルで販売されている。

しかしBOSE Framesは単なる「音の鳴るサングラス」ではない。
このデバイス最大の売りは「BOSE AR」と呼ばれる「音響を利用するAR(拡張現実)」プラットホームである。スマートフォンにBOSE ConnectアプリをインストールしてBOSE Framesをアップデートすることで、ヘルスケアやナビゲーション、ゲームといった音響ARを駆使した様々なサービスが利用できる「スマートグラス」に返信する。他のスマートグラスと異なるのは、映像を一切使わないという点だ。

しかし1月の発売時点ではまだBOSE ARは公開されておらず、しばらくは音楽をきいたり、通話や音声アシスタント機能しか使うことができなかった。

だが2019年3月10日、米国オースティンで開催されたSXSW 2019で、いよいよBOSE ARがお披露目された。そこでは数々のBOSE AR対応アプリが公開されたが、その中で筆者的に注目したのが「AIRA」との提携である。
「そうきたか」と感じたと同時に、ある意味納得の発表だ。

AIRAは北米を始め世界各地で視覚障害者を遠隔サポートするサービスを提供している。スマートフォンや専用のスマートグラスから送信された映像を元に、接続されたAIRAのエージェントが視覚障害者を音声でサポートする仕組みだ。個人契約の有料プランのほか、AIRAと提携した空港や商業施設などで無料で利用でき、そのエリアは拡大中である。

そのAIRAがBOSEと業務提携し、BOSE ARを通してサービスを提供することが発表された。AIRAのスマートグラスの代わりにBOSE Framesが使えるように鳴るというわけだ。
BOSE Framesにはカメラが搭載されていないため、スマホをくびから下げるなどどこかへ固定する必要はありそうだが、耳を塞がない構造上、エージェントからの音声を聞きながらでも安全に移動できるだろう。またBOSE Framesに搭載されている9軸指向性IMUセンサーを活用することで、ユーザーの位置や向いている方向を正確に把握できるように鳴るという。
AIRAの無料スポットではスマートフォン単体でサービスを利用しなければならなかったため、BOSE Framesが使えれば操作性は大幅に向上するし、AIRAのスマートグラスは価格やデザイン的に手が出なかったユーザーにも朗報かもしれない。

「BOSE Frames」が発表されたとき「スマートグラス的な製品でありながら映像を使わない」という野心的な特徴に、視覚障害を持つ筆者は「これぞ自分のためのデバイスだ」と思ったものだ。そしてその直感がこうして現実のものとなった事に感慨すら覚えてしまう。まあAIRAはまだ日本では利用できないんだけどね。
ただこのようなサービスが障害者専用の機器ではなく、メジャーな一般向けのデバイスで展開されたという点は色々な意味で注目に値するだろう。BOSE Framesが視覚障害者を支援することが実証されれば、BOSE ARを介して多種多様な支援アプリが登場するかもしれない。
日本上陸は一切未定だが、今後に期待が高まるニュースだ。

関連リンク:


「音声コード」の現状についてあれこれ調べてみた。


視覚障害者に情報を伝えるにはさまざまな工夫が必要だ。
ネット接続環境があればパソコンやスマートフォンを用いることで情報取得の選択肢は広がるが、視覚障害者の多くを占める高齢者の中で日常的にネットを利用しているケースは多くはない。パソコンやスマートフォンはおろか、自分専用の携帯電話も未所有という話もよく聞く。

そうなると、視覚障害者が独立して(ここが重要)得られる情報の伝達手段は一気に少なくなってしまう。
解決策として考えられるのは、点字書類や音声/デイジーCDを送付する方法があるが、点訳・音訳にコストを要するし、情報のタイムラグも発生しやすい。それに手続きなど個別情報の伝達にも使えない。
そこで考案されたのが「音声コード」と呼ばれる2次元コードを用いる方法だ。
通常の印刷物にこのコードを印刷しておき、視覚障害者がそのコードを専用機器やスマートフォンなどで読み取れば、コードに含まれる内容を音声で聞けるというものだ。

だがしかし、個人的には音声コードは存在こそ知ってはいるがそこまで普及している印象は感じていな買った。どの書類にどのような音声コードが記載されているかも聞いたことがない。

いったいどういうことだろう。
音声コードってちゃんと活用されてるの?
という疑問がふつふつと湧いてきたので視覚障害者を対象にした音声コードの現状について調べてみルことにした。
今回はあくまでも情報を受け取る視覚障害者としての視点に絞っている。


主な音声コードは4種類

ある


読み取り機器/活字文書読み上げ装置器(オフライン)
収録可能な文字数/約800 ~ 1,000文字(サイズにより異なる)
音声読み上げ/活字文書読み上げ装置の内蔵音声

2003年に考案された音声コード。自治体を中心に採用されている。
SPコードを読み取るには「活字文書読み上げ装置」が必要。現在、Windowsパソコンと接続して使う「スピーチオプラス」と、単独で読み取る「テルミー」が購入可能。これらの機器は視覚障害2級以上であれば自治体から購入補助を受けられる。

補助対象になっていることもあり、視覚障害者の間では一応のスタンダードな規格であったが、近年ではスマートフォンに対応した「Uni-Voice」が採用されることが多くなっているようだ。

2.Uni-Voice
(ユニボイス)

読み取り機器/スマホアプリ、活字文書読み上げ装置(オフライン)
収録可能な文字数/約800文字
音声読み上げ/スマホのスクリーンリーダーを使用
(活字文書読み上げ装置の場合は内蔵音声)

JAVIS(日本視覚障がい情報普及支援協会)が策定した音声コード。SPコードと互換性を持たせつつ、多言語対応など機能が強化されている。
スマートフォンに専用アプリをインストールして利用する(視覚障害者向けのアプリはiOSのみ)。また基本的な仕組みはSPコード(の一部機能)と同等なので、Uni-Voiceの音声コードはSPコード用の活字文書読み上げ装置でも読み取ることができる。ただしUni-VoiceのアプリでSPコードを読み取ることはできない。このあたりは少しややこしい。

日本年金機構やマイナンバーカードの通知書、公共料金の通知書などで採用されるようになってきている。近年では「音声コード」と言えばUni-Voiceのことを指すことも増えてきているようだ。

3.Voiceye
(ボイスアイ)

読み取り機器/スマホアプリ(オフライン)
収録可能な文字数/約1,500文字
音声読み上げ/スマホのスクリーンリーダーを使用

韓国で開発され広く普及している音声コード。日本語でも利用できるが、一部の観光施設で採用される程度で日本での活用事例はまだ少ない。
収録できる文字数はUni-Voiceのほぼ倍、QRコードのように適当にスマホをかざすだけで読み上げてくれるなど機能面では優れている。またスマホアプリという特性上、スケジュールや連絡先アプリと連携させたり、ネット接続して様々な情報を取得できるなど便利な使い方も可能。
反面、読み取り専用端末が用意されていないのでスマホを持っていないと使えないというデメリットがある。


読み取り機器/スマホアプリ(ネット接続が必要)
収録可能な文字数/最大約5,000文字
音声読み上げ/スマホのスクリーンリーダーを使用

QRコードを応用したサービスで、基本的には文字コンテンツの翻訳をメインにしているが、音声読み上げ機能と組み合わせれば視覚障害者用の音声コードとしても使用できる。コードそのものはQRコードなので専用のアプリを必要とせず、標準のカメラアプリや好みのQRコードリーダーで利用できるのが特徴。
読み取りにはネット接続が必要。その分文字数の制限が緩くコンテンツの書き換えも自由という利点もある。


視覚障害者に適した音声コードの条件を考えてみる


1.オフラインで使える端末が用意されている事

特に高齢の視覚障害者はネット接続環境やスマートフォン・タブレットを持っていない世帯が少なくない。そのため音声コードはスマートフォンだけでなく、オフラインで使える専用の端末が用意されている必要がある。

現在の活字文書読み上げ装置は音声を再生するだけだが、ディスプレイを備えた端末なら文字を表示させて拡大したり色を反転させるなどロービジョン向けの支援機能を提供できるだろう。読み取りアプリをプリインストールしたAndroidタブレットといったソリューションもあり得るかもしれない。

2.簡単にスキャンできること

SPコードとUni-Voiceに共通しているのは、印刷条件や読み取りがシビアであるという点。せっかく音声コードが印刷されていても読み取れないといった事態も発生している
これらのコードにはQRコードのようにコードを識別するマーカーが存在しないため、コードの位置を正確にスキャンしなければならず、使い勝手はよろしくない。その上印刷物の状態によっては誤認識も発生しやすいという。
この問題に関してはこちらの記事で詳しく検証されているのでぜひご一読を。

一方VoiceyeやQRコードは検出マーカーが用意されているので、上下逆さまだったり傾いていても正常に内容を読み取ることができる。この使い勝手は視覚障害者にとってはかなり重要に思える。

3.正確・安定して読み上げられる事

アプリを利用する音声コードでは、音声読み上げにスマホの読み上げ機能(スクリーンリーダー)を使うものが多い。だが現状のスマホの音声読み上げは必ずしも完全ではない。もちろん、原稿を作成する際に読み間違いやすい漢字をひらがなにするなど工夫することもできるが、スクリーンリーダーの種別によっても読み上げ方が変わる可能性がある。
どの環境のユーザーにも同一の情報を提供するには、音声合成は読み取りクライアント側で行うのがベターだろう。


結論は出ないまとめ


という漢字で視覚障害者にとっての音声コードについてあれこれ調べてみた。

現状主流になりつつあるUni-Voiceは活字文書読み上げ装置と互換性を持たせるため、コードそのものの設計に古さを感じてしまうのは否めない。読み取り時の使い勝手はコードの横にマーカーを加えるなど対策はありそうだが、コードに含められる文字数が少ないとか印刷要件の厳しさ、エラーの多さなどは解決するのは難しいかもしれない。

Uni-VoiceのベースとなっているSPコードが開発された当時と比べ、コードの認識や文字エンコード、音声合成、プライバシー保護など音声コードに応用できる技術は飛躍的に進化している。そろそろ全く新しい音声コードが出現しても良さそうな気もしなくもない。もちろんどこかで研究開発は進められてはいるのだろうけれど。
そう考えると「活字文書読み上げ装置」の存在は悩ましく思えてくる。専用端末が最新技術の普及を妨げてしまっている漢字。今後は一層障害者にとってテクノロジーが重要になってくるのは間違いない。時代に取り残されないよう、定期的なリフレッシュは必要ではないだろうか。

あと運用の面で言えば、音声コードの存在自体がしゅうちされていないと感じる。筆者も、どこにコードが記載されているのかさっぱり知らなかった。音声コードそのものはとても可能性を持つ技術だけに、もったいない気がしてしまう。

この際、本気で「使える」音声コードを策定して、公共の書類だけでなく商品パッケージや自動販売機などに一気に採用させれば、視覚障害者の生活を劇的に改善できるのになあと思ったりするのだけど、どうでしょうかね。

2019年3月9日土曜日

「アーサー」は障害者の救世主となるか!? 〜 英国で視覚障害者主体の自動運転実験。

Aurrigoの自動運転車「アーサー」(画像引用元

障害を持つ人々にとって「移動」はとても深刻な問題だ。鉄道など一部の公共交通機関では少しずつアクセシビリティは改善されつつあるが、自宅から駅、駅から目的地といった、いわゆる「ファースト&ラストワンマイル」の移動手段は限られている。
タクシーやバスなどを利用するにも障害者の乗車拒否問題が頻繁に聞かれる昨今、とても安心して単独では出歩くことはできない。公共交通機関が整備されていない地方ではなおさらだろう。障害者や高齢者のモビリティ問題は喫緊に解決すべき問題に思える。

そしてこのような問題を解決するかもしれない技術が、ドライバーレスで人々をあちこちに運んでくれる「自動運転車」。数あるテクノロジーの中でも、最も注目度の高いものの一つだろう。今この時も国内外でさまざまな方式、レベルの自動運転車が開発され実証実験が行われている。

ただ「自動運転車は障害者にも便利」というフレーズはよく聞くわけだが、世界中で行われている実証実験やコンセプトカーで、そのメリットを前面プッシュしているという情報に出会ったことはあまりない。それゆえ障害を持つ身としては、せっかくの期待の技術なのにアクセシビリティが全く考慮されず、実用化されたのに残念な気持ちになるのではないか?と漠然とした疑念も持っていた。
せっかく素敵な未来が実現したのに「見えない人には乗れません」「車椅子の人は乗れません」では困っちゃうよね。

英国コベントリーに本拠地を置くスタートアップAurrigo社は、Blind Veterans UKの協力を得て、視覚障害者が参加する自動運転車の実証実験を行うと発表した。この実験は英国ブライトン近郊で4月から6カ月間に渡って実施される。
これまでも視覚障害者を対象にした自動運転車の体験会などは実施されていたが、障害者が操縦者となる本格的な実験は世界でも初の試みという。

Blind Veterans UKの創設者、Sir Arthur Pearsonの名にちなんで「アーサー」と名付けられた4シートの無人運転車は、視覚障害者や盲導犬ユーザーが利用しやすいよう、座席の配色を見やすいものにしたり、証明や手すりなどに工夫が施されているという。
Aurrigo社の訓練を受けた視覚障害者を乗せたアーサーは、毎時15マイル(時速役24キロメートル)の速度でブライトン近郊にあるBlind Veterans UKの敷地内にある主要な施設を巡回走行する。
この走行で自動運転の安全性や正確性はもちろん、障害を持つ操縦者と自動車のコミュニケーションなど、従来の実験では行われてこなかった課題や改善点をあぶり出すのが目的という。乗り降りのしやすさや車内の居住性なども含まれるかもしれない。個人的にはトラブルが発生した場合の対処法など、イレギュラーなケースにどう対応できるのかに興味がある。

またこの実験で重視される課題の一つが「音声に夜コントロール」。
同社は2019年1月に米国ラスベガスで開催されたCES 2019でIBMの「Watson」を採用した自動運転車を発表している。音声による制御は視覚障害者向けというよりも、自動運転車の標準的なインターフェイスとして考えられているようだ。

Aurrigo社はこの実験で寄せられたフィードバックを元に、自動運転車の改良を進め障害者のモビリティ問題の長期的な解決策を模索したい考えだ。それは結果的に自動運転車をより幅広い人々に優しいアクセシブルなものに近づける。障害者にとって使いやすい技術はすべての人々にとっても快適で安全、というユニバーサルな視点を自動運転車にいち早く取り入れようというわけだ。この実験で得られた成果が、将来的に自動運転車になくてはならないスタンダードな技術として定着する可能性も少なくないだろう。

自動運転車の技術は発展途上で解決すべき課題はまだまだ多い。いつでもどこでも自由に乗れるようになるまでには、しばらく時間が必要だろう。今後もこの分野にはAIをはじめとする最新のテクノロジーが注ぎ込まれるはずだ。だが人間が乗るものである以上、ユニバーサルな視点を前提とした技術開発は必要不可欠ではなかろうか。本当に必要としている人々に、いち早く届く技術であってほしいな。

関連リンク:


2019年3月7日木曜日

このガジェット感がたまらない。インド初の点字ラップトップPC「DotBook」。

DotBook(画像引用元

インド工科大学(IIT-D)の研究者は、視覚障害者向けの点字ラップトップデバイス「DotBook」を発表した。点字で仕様できるラップトップPCとしては、インド初の製品とのことだが、その特徴ゆえ世界各国の視覚障害コミュニティからも、にわかに注目を集めている。。

このスクリーンを持たないコンピューターは、リアルタイムに更新される点字ディスプレイと音声、そしてビルトインされているキーボードを用いて、内蔵アプリケーションを操作する。電子書籍やメール、Webからの情報を、タッチパッドに浮き上がる点字に触れて読んだり、音声で確認できるので、通常のスクリーンを見ることができない視覚障害者でも容易にさまざまな情報へアクセスできるようになる。
プロジェクトリーダーであるIIT-DのM. Balakrishnan教授を中心に、インドのスタートアップの技術協力と10以上の施設、200名以上のユーザーテストを経て、4年あまりの開発期間の末に完成した。ハードウェア、ソフトウェアの両面で視覚障害者が快適に利用できるよう、徹底的なチューニングが施されたオール・イン・ワンな製品である。

またDotBookは従来の点字デバイスと比較して低価格というのも大きな特徴となっている。Phoenix Medical社が提供する点字ユニットにはIITの特許技術「Shape Memory Alloy Technology」が採用されており、既存の点字ディスプレイと比較して60~70%のコスト削減を実現したという。技術の詳細は明らかではないが、その名称からして形状記憶合金的な技術を応用したものと想像される。点字デバイス最大のネックであるコストを抑えることで、低所得の視覚障害者の情報取得のハードルを大きく下げることが期待されている。

現時点で発表されているDotBookのラインナップは2種類。
40セルの8点式点字ディスプレイとQWERTYキーボードを搭載した「DotBook 40Q」。特徴とも言えるQWERTYキーボードは点字入力にも対応している。
そして「DotBook 20P」は20セルの点字ディスプレイと点字入力に用いるキー、ファンクションキーなどを搭載したコンパクトなモデルだ。

CPUにAM335x ARM Cortex-A8を採用、内蔵バッテリーを搭載し最大8時間の駆動が可能という。
無線機能はBluetoothおよびWi-Fiを装備。そのほかのインターフェイスとしてmicroSDカードスロットとUSBポート、ヘッドホンジャックも搭載されている。

基本はDotBookにインストールされているアプリケーションを点字パッドと音声、キーボードで使用する「スタンドアロンモード」だが、USBケーブルやBluetoothでWindows PCやAndroidスマートフォンと接続して外部、点字ディスプレイ&キーボードとして使用する「PC/Phoneモード」と切り替えて仕様することも可能という。WindowsではNVDA用プラグインが用意されているとのこと。

そして、やはりきになるのが内蔵アプリケーションだろう。報道などを読む限りでは搭載されているOSやストレージなどの情報は得られなかったが、サードパーティーのアプリケーションを追加して利用できることは可能らしい。
こちらのページによると、プリインストールされているアプリケーションは以下の通り(原文ママ)。

  • File Manager
  • Notepad & Word Processor - Read & Edit Text & Doc Files
  • Screen Readers (NVDA: Windows PC & Laptops | Braille Back: Anroid OS)
  • Web Browser
  • E-mail
  • Ebook Manager (Browse, Search, Download & Read eBooks - .brf, .epub, .txt, .pdf files)

うーん、かなり漠然としているような。
このリストにNVDAとあるのでWindowsを採用している可能性はあるが、もしかしたらPCモードでの話なのかもしれない。いずれにせよ発売までは間があるため、細かい仕様はまだ決定していない可能性が高い。今後の情報を待ちたい。

単体で動作し、アプリケーションを追加して使える点字端末としては、現在Androidベースの「ブレイルセンスポラリス」などがあるが、もしWindowsベースならDotBookはさらにビジネスや開発など活用範囲が広がりそうだ。
そして何よりQWERTYキーボードと点字ディスプレイが合体した圧倒的なガジェット感は非常に魅力的に見える。これ一台でオーケーというのもスッキリしていて良さそうだし。ほぼ全盲の筆者はその勇姿を確認することはできないが、一度手に触れてみたいものである。

インドでは2019年3月から予約を受け付け、年内には出荷開始されるという。まだ詳細なスペックや価格も明らかにはされていないが、全世界の視覚障害者にとって「Canute 360」に続いてまた要注目のデバイスが登場したと言えそうだ。

関連リンク:


2019年3月5日火曜日

視覚障害者の音楽活動を大きく前進させる「触覚バトン」。

触覚バトン(画像引用元

音楽は視覚に障害を持っていても楽しめる芸術だ。聴くだけでなく、カラオケや楽器演奏、作曲など、音楽を趣味として楽しむ視覚障害者は多い。もちろんプロの演奏家を目指す人々もいる。
だが音楽の世界においても、見えない・見えにくいことで発生する障壁は少なくない。
その一つが「指揮者の動きがわからない」ということ。オーケストラで演奏する場合、指揮者の動きが見えなければ、周囲の様子や脳内でカウントするなどしなければならず、大きな負担にもなり視覚障害者が一般のオーケストラに参加する大きな障壁となっていた。
指揮者が見えない演奏者が晴眼の演奏者に混じって、演奏の出だしのタイミングをどうやって掴めばいいのだろう? 素人目にもそれがとても困難なミッションであることが想像できる。

この現状を変えるべく英国で開発されたのが、指揮者の微妙な所作を演奏者に振動として伝える「触覚バトン(指揮棒)」だ。
ちなみに「指揮棒」は英語で「baton」。日本でよく用いられる「タクト」はドイツ語の「Taktstock」から由来している(まめちしき)。

この触覚バトンは、ロンドン在住のVahakn Matossian氏が設計し、プログラマーであるCharles Matthews氏らの協力によって開発された。彼の父親であるRolf Gehlhaar氏が2017年に製作した「Beat Buzz」と呼ばれる振動デバイスからインスピレーションを受け、より反応速度の高いプロダクトに仕上げられている。
オーケストラでの演奏では、ごくわずかのタイミングのずれも致命的となる。そのため指揮者の動きを遅延なしで伝送することが絶対条件だ。これをクリアするため、音響機器メーカーShure社のパーソナルワイヤレスモニターシステム「PSM900」が用いられた。この技術により演奏者が装着するウェアラブルデバイスに、実用的なレイテンシーで信号を伝送できるようになったという。
振動ウェアラブルデバイスは、視覚に障害を持つ演奏者の両腕もしくは両足首に装着され、受信した信号をもとに指揮者の動きの速度や方向、揺れなどの情報を、立体的に伝える。もちろん複数の演奏者に同時に伝送することも可能だ。
このシステムを用いたデモンストレーション演奏会もすでに開催されており、参加した視覚障害を持つ演奏者からも高い評価を得ているという。

触覚バトンは視覚に障害を持つ優秀な演奏家が、一般のオーケストラで活躍できる可能性を広げてくれるテクノロジーだ。才能を持ちながら目に障害があるということだけで音楽を諦めていた者に希望を与えるし、視覚障害者の文化活動も促進されるだろう。それはひいては音楽会全体の利益にも繋がるはずだ。

現在はまだ試作段階だが、2020年には販売若しくはレンタルという形で市場投入をめ座しているとMatossian氏は語っている。彼のWebでは「Human Instruments」のセクションで様々なプロジェクトを展開している。

関連リンク:


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...