2020年1月28日火曜日

視覚障害者の写真撮影と「Seeing AI」の活用。


インターネットを通じたコミニュケーションにおいて「写真」を抜きに語ることはできないだろう。Instagramを例に出すまでもなく、個人・マスメディアにかかわらず写真は情報を伝達するための重要な要素となっている。どんなに言葉を尽くしても、写真の持つ情報量とインパクトは圧倒的だ。

そしてそれは、視覚障害者にとっても同じこと。
旅行に出かけたら、美しい風景やグルメを写真に納めてSNSで共有したり、子供の写真をプリントして離れて住む父母に送ったりしたい。たとえ自分ではその写真を見ることが出来な意としても「伝えたい気持ち」は見えている人々と同じなのだ。それは見える人々とのコミュニケーションの一つでもあり、もしかしたら未来にやってくるかもしれない「見る技術」を手にした自分に宛てた贈り物かもしれない。

ただスマホやデジカメの液晶画面が見えない視覚障害者が、単独で写真を撮影するには、被写体の距離などをざっくり推測し「カン」で撮影するしか方法がなかった。写真を撮るというニーズがあるにもかかわらず、それを支える技術はほとんど用意されていない。
「視覚障害者と写真」というと、どうしてもWeb上にある画像の代替テキストなど「写真からの情報を受け取る」部分にばかりに注目が集まりがちだ。もちろんそれも重要ではあるのだが、視覚障害者が写真を発信するという面には比較的スポットが当てられてこなかったように思える。それは「見えなければ写真は必要ない」という思い込みもあったのではないだろうか。

2019年12月のアップデートで日本語化されたMicrosoftの「Seeing AI」は、視覚障害者と写真との関わりを大きく変える可能性をモッているiPhone/iPad用アプリだ。
このアプリには、撮影した写真に写っている人物やオブジェクトを画像認識AIで解析し音声で伝えてくれる「シーンプレビュー」というモードがある。そして重要なのが、このモードに含まれる「写真の探索」と呼ばれる機能だ。これは写真をタッチし認識された顔やオブジェクトがどの場所に写っているかを音声で確認することができるというもの。
視覚障害者の写真撮影では、被写体をフレーム内に収めることが最も難しい。カメラレンズの向きをいくら確認しても、ちょっと傾いただけで失敗写真が出来上がってしまう。
撮影した被写体がAIで認識できることが前提だが、Seeing AIのこの機能を使えば、少々手間はかかるものの、単独である程度被写体がフレームに収まった写真を撮影できる可能性が出てきたのだ。

ということで本エントリーでは、Seeing AIを用い、画面を見ずに写真を撮影する、2通りの方法を紹介しよう。一つはSeeing AI単体で撮影する方法、もう一つが標準「カメラ」アプリと組み合わせる方法だ。

※本エントリーで用いたiOSのバージョンは13.3、Seeing AIは3.3。Voiceoverの使用を前提に書いている。解説している機能などについては筆者が独自に調べたものであるため、アプリやOSのバージョン、環境により異なる結果になる場合がある。

Seeing AI単体で写真を撮影する。


この方法では、主にSeeing AIの「シーンプレビュー」機能を用いて写真を撮影し、構図を確認。撮影した写真を共有したり保存して活用できる。大まかな手順は以下の通り。

  1. Seeing AIを起動し「シーンプレビュー」を選択。
  2. 「撮影」をタップして写真を撮影する。
  3. 写真が解析され、認識された風景やオブジェクト、人物が説明される。
  4. 「写真を探索」をタップし、タッチで被写体の位置を確認する。
  5. 目的の被写体がフレームに入っていなければもう一度撮影する。

この段階では、まだ写真はiPhone内に保存されておらず、「戻る」をタップすると撮影した写真は失われてしまう。写真を保存するには写真を他のアプリへ共有するか、ライブラリへ登録する必要がある。

「共有」をタップして共有先アプリを選択することで、写真をSNSへアップロードしたりクラウドストレージへ保存することができる。試しに「ファイル」アプリへ写真を共有しiCloudで同期したMac側で確認したところ、写真のサイズは1920 × 1080ピクセル、容量はPNG形式で約3.6 MBだった。

また「写真を保存」をタップすると、撮影した写真がiPhoneのフォトライブラリへ保存される。写真アプリを開くとアルバムに「Seeing AIの写真」という名前のアルバムが作成され、そこへ写真が保存されていることが確認できる。
「写真」アプリでは解析された説明文を確認することはできないが、Seeing AIの「メニュー」>「写真の参照」を開くと、説明文を確認したり写真の探索も実行できる。この画面から「共有」ボタンで「ファイル」へ共有したところ、サイズは768 × 1365ピクセル、容量はPNG形式で約1.4 MB。「写真」アプリから共有した場合でも、解像度は同じだった。

試した範囲で分かるのは、「写真」へ登録すると写真のサイズが縮小されてしまうということ。かといってSeeing AIの「シーンプレビュー」画面から共有すると解析された説明文が残らないのでちょっと悩むところかもしれない。

標準カメラとSeeing AIを組み合わせる。


この方法では、写真の撮影をiOS標準の「カメラ」アプリで行い、その写真をSeeing AIで解析、構図を確認して活用する。主な手順は以下の通り。

  1. 「カメラ」アプリで写真を撮影する。iOSの音声アシスト機能が使える。
  2. Seeing AIを起動し「メニュー」>「写真の参照」をタップ。
  3. 写真がリストアップされる。デフォルト設定では撮影が新しい順に並んでいる。
  4. 先ほど撮影した写真をタップして開く。
  5. 写真が解析され、認識された風景やオブジェクト、人物が説明される。
  6. 「写真を探索」をタップし、タッチで被写体の位置を確認する。
  7. 目的の被写体がフレームに入っていなければもう一度撮影する。

Seeing AIの「共有」をタップし写真を「ファイル」へ送信、iCloudで同期したMacで確認したところ、サイズは4032 × 3024ピクセル、容量はPNG形式で約12 MBだった。同じ写真を「写真」アプリから共有しても解像度は同じだった。このサイズであれば、プリントやトリミングして利用する場合でも、クオリティ的には十分だろう。

Seeing AI単体で撮影する場合と比べると、やっぱり「ちょっと面倒」なのがデメリットだろうか。あらかじめカメラで複数枚撮影しておき、Seeing AIでまとめてチェックした方が効率的かもしれない。なおSeeing AI側から失敗した写真を削除することもできる。
ちなみに「写真の参照」画面では、写真を表示している画面で3本指左右スワイプすることで写真をどんどん切り替えながらイメージの解析ができるので覚えておくと便利だ。

ちょっと手間でも「カメラ」を使った方が良いかも。


視覚障害者がSeeing AIを用いて「残したい写真」を撮影する2通りの方法を示した。
撮影してタッチで確認するとなるとある程度時間が必要なため、活用できるシーンは限られるかもしれない。だがこれまで当てずっぽうで撮影してきたことを考えると、可能性は感じられるのではないだろうか。

これらの方法を比べてみると、大きく異なるのが保存される写真の解像度だ。「カメラ」を用いた場合、4倍以上の解像度で写真を残すことができる。解像度が高ければ、後で見える人に頼んで加工してもらう場合でも画質の劣化を最小限に抑えられる。

「カメラ」を使用するメリットはもう一つある。それは撮影中の音声アシスト機能が利用できることだ。Voiceoverを有効にしていると、カメラアプリは被写体がフレームのどのあたりに入っているかを(かなり大雑把だが)音声で教えてくれたり、iPhoneの傾きを微調整するよう指示してくれる。特に被写体が人物の場合は顔検出機能が働き、フレームに何人が入っているかまで教えてくれる。現在のところSeeing AIの「シーンプレビュー」モードではこのような機能は提供されていない。将来的にこのようなアシスト機能が進化すれば、もっと素早く確実な撮影ができるようになるだろう。

ちょっとした風景をそのばで知りたい時はSeeing AIだけで解析するのが手軽で便利だが、後で活用するための写真をできるだけきれいに撮影するなら少々面倒でも「カメラ」で撮影し、Seeing AIを用いて解析・確認する方が良いだろう。

視覚障害者にとって、写真撮影にはまだまだ高いハードルがあるのは事実。だがカメラのアシスト機能やSeeing AIの登場は、このハードルを少しだけ下げてくれた。
これまで困難だったと思われていたことがテクノロジーによって可能になる。
音声を使った写真撮影はその良い例の一つといえるだろう。

今後はより高度な撮影アシスト機能や、構図やトリミングをオートで行ってくれる機能などが求められるだろう。そのような技術は、カメラをしっかりホールドできない運動障害を持つ人々や、高齢者をはじめとしたカメラに不慣れな人々にも恩恵を与えるのではないだろうか。
結構、見えてるのにフレーミングが苦手な人、多いと思うよ。

カメラの進化といえばどうしても画素数やレンズ品質など、クオリティに偏りがちのように思えてならない。だが写真撮影のアクセシビリティに関しては、まだまだ改善するよちがあるのではないだろうか。障害を持っていてもカメラが苦手でも、誰もが写真をもっと楽しめる、そんな時代がきて欲しいと思うのだった。


2020年1月23日木曜日

「Hable One」。スマホの文字入力に「点字」という新たな選択肢。

Hable(画像引用元

視覚障害者の間でも急速に普及が進んでいるスマートフォン。
iPhoneならVoiceover、AndroidならTalkbackなどのスクリーンリーダー(音声読み上げ機能)を用いることで、たとえ全盲でも見えるユーザーと同様に情報収集やコミュニケーションなどに活用できる。今やスマートフォンは視覚障害者にとって、手放せない貴重なツールの一つとなっている。

だが視覚障害者のスマホ利用においてネックとなっているのが「文字入力」のしにくさ。
スクリーンリーダーの操作は基本的に「タップで内容を確認」して「ダブルタップで実行」という2段階となるため、スクリーンキーボードを用いた文字入力の効率が、あまりよろしくない。
かといって音声入力を使えばいいかといえば、プライバシーや誤入力などの問題もあり常に便利に使えるとは言い難い。

コンパクトな外付けキーボードがあれば良さそうだが、市販されている小型QWERTYキーボードは視覚障害者むけには設計されておらず指先だけの感覚でスピーディーに入力するのは難しいものがほとんど。もっと見えない・見えにくいユーザーにも使いやすい、シンプルな入力機器が求められている。

オランダのスタートアップHable Accessibilityが現在開発している「Hable One」は、世界初という点字入力に特化したスマートフォン用ワイヤレスキーボードだ。まだ発売前だが、2019年にPhilips Innovation Awardを受賞している。

このキーボードには点字入力に用いる6つのボタンと、キーコンビネーションでスペース、バックスペース、Enterなどとして機能する2つのファンクションボタン、合計8個のボタンが搭載されている。点字による文字入力のほか、スクリーンリーダー使用時のナビゲーション操作にも利用できるという。

Hable Oneで文字を入力するには、点字のドットに対応した6つのボタンを同時にプッシュする。入力された点字コードは文字形式に変換され、当然ながらスマートフォン上には通常の文字として入力される。
ボタンの数が少ないため、視覚に障害を持っていても指先の感覚だけで確実なタイピングが可能だ。もし日本語に対応すれば、かなをダイレクトに入力できるため、フリック入力以上に素早く文字を入力できるだろう。これは短縮形式がある英語点字でも同じことが言える。

スマートフォンとの接続はBluetooth経由で行い、手に持ったり・デスクに置いたり・スマートフォンのケース背面に貼り付けるなど自由なスタイルで利用できる。
現在対応している言語は英語とオランダ語。じゅんじヨーロッパを中心に要望の多い言語から対応していき、将来的には点字で利用できる全ての言語をカバーすることを目指しているという。

これは筆者個人の感想だが、点字は「指先で読む」にはかなりの訓練が必要だが、ドットの配列を覚え「点字でかく」のは意外と難しくない。特に文字単体だけであれば。
なのでこのHable One、視覚障害者以外のユーザーにもシンプルな入力装置として結構、有益なケースがあるのではないだろうか。
市場が広がれば価格も下げられるし点字の啓発にもなり一石二鳥である。

Hable Oneは現在オランダで最終テストが行われており、2020年中の発売を予定している。気になる価格は200ユーロ前後(約24,300円)程度になるみこみ。
公式サイトでは、すでに予約注文の受付が開始されている。



2020年1月20日月曜日

[CES 2020]関連記事まとめ+おまけ付き。


CESは毎年1月、米国ラスベガスで開催される、世界中から最新のテクノロジーが集結する展示会だ。今年も2020年1月7日から10日までの4日間にわたって開催され、4,400社以上の企業が最新テクノロジーを披露した。
一般的にはソニーの電気自動車とか画面を折りたためるノートパソコンなどが話題に上っていたが、まあそのような記事は他の方が書くと思うので、全盲である筆者ならではの視点からニュースをピックアップし記事をエントリーしてきた次第(いわゆる隙間戦略)。
そろそろネタも尽きてきたので、ここでCES関連のエントリーをおさらいしつつ、記事にはしてないけど気になるトピックスなどをまとめてご紹介しましょう。

CES 2020、視覚支援関連エントリーまとめ。



その他、CES 2020で気になったトピックスなど。


スマートシティに点字を広げる?「Dot Public」。

「Dot Watch」や「Dot Mini」などの点字ガジェットを開発する韓国Dot社。
CES 2020ではスマートシティを推進するソウル市のブースに共同出展していた。
ニュースリリースを読むと、Dot WatchやDot Miniと並んで、新しいプロジェクト「Dot Public」なる名前を発見。どうやらこれはガジェットではなく、公共空間に設置されるデジタルサイネージなどに点字ディスプレイ機能を提供するといったもののようだ。
Dot Publicの詳細は明らかになっていないので想像するしかないのだが、街中のあちこちに点字ディスプレイが設置される光景は壮観だろう。メンテナンスが大変そうだけど。


Googleアシスタントで長文の自然な読み上げを実現。

GoogleはCES 2020でスマートスピーカー関連の新サービスを発表した。
その中で興味深かったのが、スマートフォンで表示させたWebなどの長文テキストを、Googleアシスタントを経由し音声で読み上げさせるという新機能。
独自の音声エンジンを使用することで、スクリーンリーダーと比べ、より人間の発音に近い自然な読み上げを実現できるという。また同時に多言語間での翻訳も可能とのことだ。
サービス提供時期は未定。
個人的にはスクリーンリーダーとシームレスに併用できるようになると嬉しいかな。


世界各地から「スマート白杖」が集合。

視覚障害者の必需品といえば「白杖」。
これをスマートデバイス化することで、障害物を検知したりナビゲーションに活用しよう、というのが「スマート白杖」である。以前から赤外線や超音波を用いた製品は販売されていたが、近年ではスマートフォンとの連携など多機能化が進んでいる。

CESイノベーション賞を受賞した「SEED Cane」は、韓国、漢陽大学のSeed Labが開発したスマート白杖。主な機能は以下のとおり。

  • 赤外線センサーを用いた障害物検知。
  • スマートフォンと連携できるトラッキング機能。
  • GPSを用いたナビゲーション機能。
  • 位置情報の共有とレスキュー機能。
  • LEDライトを用いて周囲に注意を促す。

と、なかなか盛り沢山なスマート白杖である。
CESでは他にも、トルコの「Wewalk」、フランスの「Handisco」がスマート白杖を出展。いずれもGPSやスマートフォンとの連携機能を持ったインテリジェンスな杖だ。

ただこのようなスマート白杖、当事者の関心は集めるものの浸透はしていないという印象を持っている。体験できる機会を増やし利便性を集ちさせる必要があるかもしれない。
個人的には杖一体型の製品よりもモジュール式のものも作って欲しいなあと思うのだった。白杖の好みは個人差があるし、外で使うものなので結構汚れたり何かに引っかかってばっきり折れることもあるしね。


ひとまず、まとめ。


今年のCESは全体的な傾向として、アクセシビリティを含めたヘルステックが盛り上がっていた印象だった。他のジャンルでも音声やAIを活用した技術が目立ち、視覚障害者にも有益そうな製品も多くとても興味深かった。

当ブログで取り上げた製品の他にも、遠隔サポートにも使えそうなスマートグラス「Norm Glasses」や日本から出展していた「ダイナグラス」、家庭用アイケアデバイス「Eye Que」、Owl Labsの「Pro meeting(カメラとマイクを自動追従させるビデオ会議システム)」なども面白そうだし、聴覚/運動障害支援関連の技術も多数出展されていたのだけれど……。
キリがないのでこの辺りでおしまい。
これは!と思ったものはまた後日記事にします。

ちなみにCESイノベーション賞を受賞した製品のリストはこちら
アクセシビリティ部門のベストイノベーション賞は「Code Jumper」が受賞した。


2020年1月19日日曜日

[CES 2020] タッチパネルに「触覚」を加える2つのテクノロジー。

TanvasTouch(画像引用元

スマートフォンや駅の券売機、ATM、家電製品、レストランのメニューに至るまで、タッチパネル操作式のディスプレイは至る所で日々増殖を続けている。だがこのようなディスプレイは指で触れても物理的なフィードバックが得られず、操作した感覚に乏しい。
せいぜい、効果音が鳴ったり軽く振動する程度だ。

この「操作した感」の缺乏は、タッチパネルの表面がツルツルしていることが原因だ。
ツルツルしてるのだから、仕方がない。
でも、もしタッチパネルに触れた時、押しボタンの感触を感じられたらどうだろう?
ツルツルしてるのに、指先に触感を覚える。
そんな不思議な技術がCES 2020に出展されていた。

触覚ディスプレイは、タッチパネルの表面を変形させることなく様々な仕組み(超音波や静電気など)を用いて指先に擬似的な触覚を出現させる技術だ。これまで、このような技術は主にディスプレイを注視できない自動車設備むけに開発が勧められてきたが、家電製品やキオスク端末、スマートフォンなどへその用途が拡大されつつある。

もしスマートフォンに触覚が加われば、画面を見ることなく音楽再生をコントロールしたりメッセージに応答できるようになる。
またタッチ操作に不慣れな高齢者が、操作するボタンを触覚で確認するといったユーザー補助的な用途も考えられるだろう。

一方、筆者のようにスクリーンリーダーでタッチパネルを操作しているユーザーにとっては、音声だけが頼りだったインターフェイスに「触覚」というチャネルが加わることで、得られる情報量が大幅にふえることが期待できる。

触覚ディスプレイは、そのようなアクセシビリティの改善とともに、エンターテイメントやネットショッピングなどの分野への応用も期待されている最新の技術だ。
これまで視覚、聴覚しか扱わなかった世界に「触覚」をもたらすこのテクノロジーは、電子端末に大きな変革をもたらす可能性を秘めている。

Tanvas、「TanvasTouch」の開発キットを販売開始。


米国Tanvas社は、様々な大きさや形状のディスプレイやトラックパッドなどの表面にプログラマブルな触覚エフェクトを追加する技術「TanvasTouch」を開発しているスタートアップだ。
スワイプで画面上に独特なテクスチャを感じたり、ボタンのクリック感を体験できるなど、これまでとは次元の異なるエクスペリエンスを提供する。すでに一般向けの製品に組み込まれた実績もあるという。

そしてTanvas社はCES 2020にて、同社の触覚技術を誰でも試すことができるオールインワンの開発キットをリリースした。これにより商用製品のタッチディスプレイに触覚エフェクトを導入するにあたり、事前にこの技術を試すことができるようになる。

この開発キットには10.1インチマルチタッチディスプレイと、触覚を定義するためのソフトウェア、ツール、API、そして各種リファレンスとトレーニング、専門スタッフによる5時間の無料サポートが含まれる。
このキット販売により、触覚ディスプレイへのハードルが下がり、様々な端末への導入が進むことが期待されている。


Hap2Uの「Hap2Phone」はスマートフォンに触覚を加える。


タッチパネルに「触覚」体験を加える技術を開発しているもうひとつのスタートアップが「Hap2U」だ。
同社の技術はディスプレイをタッチした指先に、様々なテクスチャの触感を再現する。そして通常タッチパネルに用いられるガラス面だけでなく、プラスチックや金属といった素材にも触覚エフェクトを追加できるのが特徴という。例えば家電製品のプラスチック製ボタンに、触覚フィードバックを追加することもできるようだ。

そして同社がCESで出展した「Hap2Phone」は、スマートフォンに多彩な触覚をもたらすことに特化した製品。
これはディスプレイのガラスカバーの下に厚さ2ミクロンの薄膜圧電溶液を組み込むことで、画面をタッチした指先にボタンやスイッチなどの触覚を再現する。この仕組みを導入しても、スマートフォンの重量や消費電力に与える影響はわずかとのことだ。

Hap2Phoneではボタンやスイッチなどの感触に加え、柔らかさや高低差といった微妙な感覚を表現することもできるという。たとえばネットショッピングで商品の質感を伝えるような用途も考えられているようだ。
この技術が進化し、点字の触感を再現できれば最高なのだが(妄想)。

また具体的な応用例として、ソフトウェアキーボードに触れた時に文字の形を感じ取るといった使い方も示されている。「形」といっても、どのくらい細かい形を感じられるのかは不明だが、同社は画面を見ずにタイピングできるレベルを目指しているようだ。

hap2Uはスマートフォンメーカーへこの技術をOEM供給することを考えている。「触感」がスマホの新しいセールスポイントになる日も近いかもしれない。ゲームなどエンタメコンテンツと組めば、結構うけるような気もする。



[CES 2020] Orcam、「Myeye2」の新機能と2つの新製品を発表。


CES 2020、イスラエルのスタートアップOrcam社のブースでは、すでに日本を含む世界各国で販売されている画像認識AIを用いたウェアラブルデバイス「Myeye2」の新機能と、「Read」「Hear」という2つの新製品が発表された。
このニュースに関してはすでに日本語によるプレスリリースが出されており、テック系メディアでも記事になっているので詳しくはそちらを参照いただくとして(手抜き)、ここでは発表内容をかいつまんで紹介しつつ、個人的な感想などを書いてみよう。

「Orcam Myeye2」の2つの新機能。


Orcam Myey2については、2つの追加機能が発表された。

1.「NLP(ナチュラル・ランゲージ・プロセッシング)を搭載したインタラクティブ・リーディング機能」(リリースより引用)
音声コマンドと自然言語処理を用いて認識したテキストから読み上げたい部分をピックアップする、といったことなどができるようだ。例えばパンフレット全体から日付や価格を読み上げるなど、いちいち先頭から読ませなくても知りたい情報を得られる。これは情報入手の効率化が期待できそう。
この種の文字認識機能の品質はこれまで正確性が主な評価基準だったが、これからは認識した文字や文章をいかにして処理し活用するか、という段階に入りつつあるのかもしれない。他のOCRアプリにも採用されないかなあ。

2.「ユーザーの目の前にある対象物の認識や、移動の際のサポートをするためのオリエンテーション機能」(リリースより引用)
例えば目の前にドアがあることを認識させ、そのドアまでの移動をサポートしてくれるようだ。どのようなオブジェクトを認識できるのか興味深い。オリエンテーションの使い勝手も気になる。例えば「Navilens」のような仕組みと組み合わせても面白そうだ。

それにしてもMyeye2のハードが持つポテンシャルのたかさには驚かされる。アップデートだけで、一体どこまで進化するのだろうか。あの価格は伊達ではないと思った次第。
今回発表された新機能の中で注目したいのは、やはりオブジェクト認識とオリエンテーション機能だろう。どこまで実用的かは体験してみないとわからないが、Myeye2でナビゲーションするという発想は、将来登場するであろう「Myeye3」の姿を妄想させる。
近年ではカメラや深度センサーを用い、画像認識AIをナビゲーションに応用する動きが活発化している。Myeyeが道案内してくれる未来はそう遠井話ではないのかもしれない。

新製品「Orcam Read」。


Orcamが発表した新製品の一つが、ハンディ型のリーディングデバイス「Read」。
読ませたい書類にデバイスを向けるとテキストを認識し、音声で読み上げることができるという。既存のメガネクリップ式デバイス「Orcam Myreader2」のハンディ型、という感じだろうか?
視覚障害向けというよりもディスレクシア支援デバイスとしてアピールされているようだ。このデバイスもMyeye2やMyreader2と同様にオフラインで動作するため、スマホのOCRアプリなどと比較しレスポンスの高速さが期待できそう。
価格は発表されていないが、ウェアラブル型の製品と比べると抑えられるだろう。ハンディ型のOCRデバイスはすでに国内でも流通しているが、Orcam Readが国内販売されればそのライバルになるかもしれない。

新製品「Orcam Hear」。


もう一つの新製品が、Orcam社初の聴覚支援デバイスで、CESイノベーション賞を受賞した「Orcam Hear」だ。メディアではこの製品に最も注目が集まっていたようだ。
これは会話中の相手の唇の動きをカメラで認識し、声を聞きやすく補整する仕組み。周囲に大勢の人がいるような場所でも、話している相手の声をはっきり聞き取れるようになるという。Hearは単体でどうさするのではなく、Bluetoothで補聴器とペアリングして利用する。CESではまだ試作コンセプトの段階で、発売日や価格は未定。
音声の分離を画像認識AIでやってしまおう、という発想はさすがといった感じだ。

CESでは他にも、海外では販売中の顔認識デバイス「Myme」も展示されていたようだ。
日本国内ではMyeye2やMyreader2の価格改定が行われたり、自治体による補助対象への動き図書館への導入などが見られるなど、引き続き注目のOrcam製品。CES 2020の発表を見る限り、新製品を積極的に投入しつつも旧製品のサポートにもしっかり取り組まれていることがうかがえる。視覚障害者やディスレクシアを支援するデバイスは世界各地で様々なタイプの製品が開発されているが、技術力やセキュリティへの配慮などの面でOrcamのデバイスはいまだにトップクラスという印象。もう少し手に入りやすくなるといいのにね。

個人的に、Myeye2の新機能にしろHearにしろ、Orcamの発表は新しい気づきを与えてくれると感じる。すぐに手に入るものではないのかもしれないが、人間の能力を補助し拡張してくれる新しいテクノロジーを妄想するのはそれだけで楽しいものだ。



2020年1月18日土曜日

[CES 2020] ディスレクシアの読書を支援する2つのガジェット。


ディスレクシア(失読症)とは、学習障害(LD)の一つで文字を読むことが困難な状態を指す。
正常な視力があり文字をしっかり見ることができるにもかかわらず、何らかの原因で脳がそれを意味のある文字として認識しにくいという。そのはっきりとした原因はまだわかっていないが、一説には英語圏人口の10%ないし20%が程度の差はあれ失読症を持っているとも言われている
特に学校に火曜子供にとって、ディスレクシアの影響は非常に深刻だ。一部ではデイジー教材や音声読み上げできるタブレット端末などを教育現場へ導入する動きもあるが、まだ一般的ではない。「見えにくい」障害故に、その支援は遅れがちだ。

2017年にフランスで行われた研究によると、マスターアイ(利き目)が明確でない場合にテキストを両眼で見ルト、過度な対称性により左右の映像が重なり文字の形が崩れたりぼやけることがわかった。これが読みにくさの一因であると考えられるという。
そしてCES 2020では、この研究結果を元に開発された、ディスレクシア向けの読書支援デバイスが、いくつか出展されていた。

読書環境を改善するLEDランプ「Lexilight」。


フランスのLexilife社が出展した「Lexilight」は、ディスレクシアの「読みにくさ」を軽減できるLEDランプだ。
このランプからは一定のリズムでパルス光線が照射され、脳が目からの文字情報を混乱しないように処理する助けをしてくれるという。ランプの照射レートはユーザーの状態に合わせてカスタマイズ可能だ。このランプの下で読書することにより文字のチラつきやぼやけが軽減し、読みやすくなるとのこと。

Lexilifeがディスレクシアの300人以上を対象に行った実証実験では、90%以上が読書能力の改善を感じたという。
Lexilightはフランスではすでに販売中。米国でも近々購入可能になるとのこと。


失読症の子供向けスマートグラス「Lexilens」。


フランスのAbeye社が開発している「Lexilens」は、ディスレクシアの子供向けのスマートグラス。軽量で処方レンズと合わせて利用でき、一度の充電で2日間利用可能という。
学校での利用が想定されており、使いやすさ、装着感にこだわっている。

Lexilensには電流によってレンズの色や透明度を変化させる高性能エレクトロクロミックレンズが内蔵されている。ユーザーの読みにくさに応じて、レンズを通過する光を素早く変調させることで、読みにくさを軽減させる仕組み。
このデバイスはCESイノベーション賞を受賞、2020年の第2四半期にリリース予定だ。



[CES 2020] スクリーンレスでフリーなコンピューティングを目指す「Oflo」。


香港に本拠地を置くスタートアップ、Origami LabsがCES 2020で発表した「Oflo」は、ディスプレイを搭載しない、音声とジェスチャだけで操作するヒアラブル・デバイスだ。
ディスプレイの高精細化や大型化が進む中、あえて視覚的な要素を排除し「音声」に絞ることで、新しいコンピューター体験の創造を目指している。

同社は2017年に骨伝導技術と音声アシスタントを応用したスマートリング「Orii」を開発・販売した。これはスマートフォンとペアリングし画面を見ることなくさまざまな操作を実行できるというウェアラブルデバイス。創業者の父親が視覚に障害を持っていたことがきっかけで開発されたという。

「Orii」の成功を踏まえ開発された「Oflo」はこれをさらに発展させた製品だ。
スタンドアロンで動作するこのヒアラブルデバイスでは骨伝導技術と音声アシスタントに加え、ジェスチャによる操作を採用し、画面を用いないコンピューティングがさらに推し進められている。

このシステムは耳の後ろに装着する骨伝導イヤホン「Oflo Air」と胸ポケットにすっぽり入る「Oflo controller」で構成される。
controllerには指向性マイクとカメラが内蔵されており、ユーザーの音声やジェスチャを認識して通話に応答したり、様々な操作を実行できる。内蔵されているスピーカーは翻訳した音声ヲゲストに聞かセルためのものかな?(想像) 装着しても目立たない、さりげないデザインが特徴でバッテリーは一日中持つ。搭載されているアプリケーションは導入企業のコミュニケーションニーズに沿ってカスタマイズ可能とのこと。
また複数のデバイスを統合管理できるdashboardも提供される。ここでは全ての音声ログを時系列に保存し、音声をテキスト化した上で会話の内容や傾向を分析できるという。

このデバイスの主なターゲットは、ホテルや航空業界、エンターテイメントといったサービス業。従業員間のコミュニケーションや情報伝達、翻訳機能を用いた接客などの用途が想定されている。



2020年1月17日金曜日

スマートコンタクトレンズ「Mojo Lens」がロービジョンの生活を改善する?


2020年1月16日、米国カリフォルニアに拠点を置くスタートアップMojo Visionは同社が開発中のスマートコンタクトレンズ「Mojo Lens」のコンセプトを発表した

Mojo Lensは超小型のディスプレイを搭載したハードタイプのコンタクトレンズ。スマートフォンの画面を見たりxRグラスなどを用いずに、現在見ている視界に重ね合わせてあらゆる情報を得られるという、なんとも未来的なデバイスだ。
同社はこの体験を「インビジブル・コンピューティング」と名付けている。

Mojo Lensには、極小・高密度のダイナミックディスプレイ、電力効率の高いイメージセンサー、視線追跡および画像安定化のためのモーションセンサーなどの先進的で独自の技術が盛り込まれている。
中でも2019年5月に発表された「Mojo Vision 14K PPIディスプレイ」は、14,000ppiを超えるピクセルピッチと200Mppiを超えるピクセル密度を持つ、世界トップクラスの技術を持つという。
現時点ではメインとなる処理やネットワーク接続は手首に装着されたデバイスで実行され、電力とともに独自開発されたワイヤレス技術を用いてコンタクトレンズへ送信される。同様にレンズのセンサーから得られた情報もワイヤレスで伝送される仕組みだ。
このデバイスは10年もの間秘密裏に開発が進められていたという。

発表会では実際にレンズを装着することはできなかったようだが、視線追跡機能を搭載したVRヘッドセットを用いたデモンストレーションが行われた。デモでは視野の中に出現する情報や視線の動きを用いたユーザーインターフェイスが説明された。
たとえばスマートフォンからの通知を受けたり、天気やスケジュールの確認、現在地のさまざまな情報などを、現在見ている風景にオーバーレイして表示してくれるという。表示やアプリのコントロールは視線の動きで行う。地図アプリと連携すれば、進むべき方向を矢印で示したりできるようだ。医療現場や製造工場、メンテナンス業務などにおけるスマートグラスの置き換えも想定されている。
まあ、これをどこまで便利に思うのかは人それぞれだとは思うが、画期的なデバイスであることは間違いないだろう。アイデア次第では、スマホやコンピューターの使い方を根本から帰る可能性を秘めている(かもしれない)。

そしてMojo Lensがまず実現させようとしているのが、網膜色素変性症や黄斑変性などの眼病が要因で視力が低下し、日常生活に不便を感じているロービジョンの人々の支援だ。
レンズに搭載されたイメージセンサーで撮影した映像のコントラストやカラーを調整したり、物体の輪郭を強調、拡大縮小処理などを施すことで、そのような人々の「見え方」を改善しようというわけだ。
たとえば夜盲の人が暗い場所で自由に移動できたり、視野が狭い人が残された部分を拡大縮小させて視力をコントロールする、といったことが特別なデバイスを用いずに実現するかもしれない。
このようなデバイスはすでにメガネ型の製品が実用化されているが、価格はともかくお世辞にもスタイリッシュなものとは言い難い。コンタクトレンズによる視覚補整が実現すれば、ニーズは確実にあるだろう。
同社はカリフォルニア州パロアルトにある視覚リハビリテーション施設「Vista Center for the Blind and Visually Impaired」と提携し、視覚障害当事者の協力を得ながらレンズの開発とテストを行なっている。

Mojo Visionがロービジョン支援を優先させるのには理由がある。
このレンズを市場投入するにはFDA(アメリカ食品医薬品局)による承認が不可欠。そこで同社は「FDA breakthrough Program」の認定を受け、FDAと連携することで、このプロセスを加速させようとしているようだ。これは医療・健康に関わる重要な技術開発の促進を目的としたプログラムで、製品審査や臨床試験において優先的なやりとりが行われるという。ロービジョン市場の規模は小さいが、目先の利益よりもまずより早い市場投入を目指しているということのようだ。

Mojo Lensはまだ研究開発段階であり、リリース時期は未定。先述のような状況から考えると、まず米国でロービジョン向けのデバイスとして実用化され、それに続いて一般向けにリリースされるという順番になるだろう。

ある意味、究極のウェアラブルディスプレイといえる「Mojo Lens」。
日の目を見るのはいつになることだろうか。


2020年1月16日木曜日

[CES 2020] 視覚障害者向けスマートグラス「Envision Glasses」発表。


iPhone/Android用画像認識アプリ「Envision AI」で知られるオランダのスタートアップEnvision社は、CES 2020ではEnvision AIの技術を応用した視覚障害者向けのスマートグラスを出展した。
CES会期中はあまり情報が入ってこなかったのだが、2020年1月14日、その新しいデバイスの概要が公式に発表された
その名は「Envision Glasses」。

Envision AIはカメラで撮影したテキストや人物などを画像認識AIで解析しその内容を音声で読み上げてくれるアプリ。アプリ版はすでに多くの視覚障害者に利用されており、早い段階からスマートグラス対応の要望が寄せられていたと言う。
Envisionはその声に応えるべく試行錯誤を続け、満を辞して登場したのが「Envision Glasses」。単体でEnvision AIの画像認識機能が利用できるスマートグラスだ。

ハードウェアは独自設計ではなく、2019年5月に発売された「Google Glass Enterprise Edition(第二世代)」を採用。わずか46グラムという軽量、そして一般的なメガネと違和感の少ないデザインが特徴で、フレームには好みのレンズをいれることができる。
スマートグラスというと、どうしてもゴツい姿を思い浮かべてしまうが、その心配は少なそうだ。もちろん使用中はフレームから延びるケーブル類は一切ない。

フレームの左側には800万画素のカメラが搭載されており、側面のタッチパッドの操作でEnvisionのアクションを選択しアプリ版と同様の画像認識機能(文字の認識、人物の顔や色の識別、風景の説明など)が利用できる。ウェアラブルになることで、いちいちスマートフォンを取り出す必要がなくなるのは、特に外出や作業中には便利そうだ。

またEnvision Glasses独自の機能として「ビデオ通話」が追加されている。カメラで撮影した映像をストリーミングし、遠隔サポートを受ける時などに利用できる。要するに晴眼者と接続し「Be my eyes」や「AIRA」のように、向いている方向の映像を見てもらいながら色々手伝ってもらえる、と言う感じ。これ、なにげに目玉機能な気がする。

Google GlassはAndroid OSを採用しているが、標準の音声読み上げ機能「TalkBack」には対応していない。そこでEnvisionは独自に音声読み上げ機能を開発し実装したとのことだ(この辺り、日本語ローカライズの障壁になりそう?)。
音声は内蔵スピーカーもしくはBluetooth/USB-C接続のイヤホンから出力される。
なおGoogle Glassには液晶ディスプレイが内蔵されているが、Envision Glassesでは使用しない。また音声による操作はできないようだ(対応してほしいなあ)。

ネットワーク接続が必要な機能についてはWi-Fi接続、もしくはBluetoothでスマートフォンと接続することで利用できる。
バッテリーはUSB-Cポート経由で充電し、最大で8時間駆動可能という。物理的な電源ボタンがあるので、使いたい時だけ電源を入れるような運用もできそうだ。

気になる価格は、まだ未定。
現段階の見積もりでは1,000から1,500ドル程度とのこと。Google Glassの価格が999ドルということを考えると、これはかなり良心的というか戦略的な価格設定。一般的なガジェットと比べると高価に聞こえるかもしれないが、3,000ドル、5,000ドルが当たり前の視覚障害者向けスマートデバイスの世界では破格と言える。

発売予定は2020年7月。それに先立ち3月に米国で開催されるCSUNにおいて予約キャンペーンを実施するとのことだ。


2020年1月14日火曜日

[CES 2020] SAMSUNGとロービジョン向けデバイス「Iris Vision」が業務提携。


ロービジョン向け視覚補整スマートグラスを開発・販売する米国Iris Visionが、SAMSUNGとのパートナーシップ提携を発表した。
Iris VisionはSAMSUNGのスマートフォンGalaxyシリーズとVRゴーグルを用い、カメラで撮影した映像をリアルタイムで処理し、ロービジョンの生活向上を目指す製品。すでに北米を中心に数千人のユーザーを獲得している。(関連エントリー

この業務提携によりIris VisionはSAMSUNGと連携し、5gやxRといった最新の技術を次世代スマートグラス開発に活用したい考えだ。

さらにSAMSUNGの世界規模のネットワークを活用し、Iris Visionの処方をリモートで行うなど、販路の拡大も視野に入れている。

Iris Visionは視覚補整スマートグラスとしては比較的安価なソリューションであるため、この提携によって入手性が高まれば、恩恵を受けられるユーザーが増えるかもしれない。



[CES 2020] 点図にも対応?点字タブレット「Tactile pro」登場。

Tactile Pro(画像引用元

目から情報を得られない視覚障害者にとって、写真や図形、グラフといったグラフィカルな情報を扱うのは非常に困難だ。
駅の案内板などで見かける、隆起した点の集まりで絵や図形を表現する「点図」や、盛り上がる特殊インクやファブリックなどを組み合わせた「触図」など、触れることでグラフィックを感じる手段は存在している。だがいずれも制作には専用機材が必要であり時間もコストもかかる。手軽に利用できるようなものではない。
結局、日常的に扱われるグラフィック情報については「ことば」で説明してもらうのが、ほぼ唯一の手段というのが現状なのだ。

韓国PCT社はCES 2020において、視覚障害者向けのタブレット端末「Tactile Pro」と、点字の学習に重点をおいたバージョン「Tactile Edu」を発表した。この製品はCES 2020イノベーション賞を受賞している。

Tactile ProはWebやメール、メッセージ、電子書籍などのコンテンツを点字と音声で利用することができる視覚障害者向けのAndroid OSを搭載したタブレット型端末だ。
一般的な点字ディスプレイのようにテキストを点字に変換して指先で読むだけでなく、コンテンツ上のイメージを、リアルタイムに点図としてレンダリングし、写真や図を指で触れて感じ取ることができるのが最大の特徴という。点字のリフレッシュ速度は役0.3秒と高速だ。

例えばスクリーンリーダーでWebを閲覧する場合、見出しから本文へと順番に音声または点字で読み進めていく。その途中でイメージにフォーカスされると、通常はイメージに設定されている代替テキストが読み上げられる。
あくまでも想像ではあるが、Tactile Proではこの瞬間に画像の内容が点字ディスプレイの解像度に自動変換され、ピンの隆起でレンダリングされるイメージだろうか。
点図の表現力や触覚で得られる情報には限界はあるが、それでも代替テキストだけの場合と比べると得られる情報量は圧倒的に増えるだろう。このデバイスは視覚障害者の情報取得の幅を大きく広げる可能性を持っている。
うーん、筆者は公式Webの写真も動画も見ることはできないけど、想像するだけでワクワクしちゃうね。

ソフトウェア的にはWebブラウザや文書作成、電子書籍リーダーなどの基本的なアプリに加え、点図表示をコントロールするアプリなどもバンドルされる。
多言語にも対応し、点字キーボードから入力したテキストを他の言語に翻訳しつつ点字に変換する、といったようなこともできるようだ(日本語に対応しているかは不明)。
点図を実現したハードウェアも画期的だが、これを100%生かすようなソフトウェアが用意されていることにも期待したい。

現時点ではまだ情報が少なく、詳細なスペックや価格、発売日などは不明。
これまで点図専用ディスプレイは製品化されていたが、非常に高価なものだった。タブレット一体型のTactile Pro、どれくらいの価格になるのだろう。
点図タブレットといえば以前「BLITAB」が話題になったが、まだ製品化されたという話を聞かない。Tactile Proは「世界初の点図タブレット」としてデビューできるのだろうか?
あまりきたいしすぎない程度に待ちたい。



2020年1月13日月曜日

[CES 2020] 発売間近。「Code Jumper」はプログラミング教育を変えるか。

Code Jumper Kit (画像引用元

Code Jumper」は、視覚に障害を持つ子供のためのプログラミング教材だ。
米MicrosoftとAmerican Printing House for the Blind(APH)が共同開発し、CES 2020イノベーション賞を受賞。プロジェクト自体は昨年発表されていたが、CESでは発売間近の製品バージョンがお披露目されたようだ。

職域が制限されがちな視覚障害者にとって、雇用はいまだに大きな問題だ。そのような状況の中、プログラミングが雇用に直結する重要なスキルとして注目を集めている。
プログラミングスキルの習得のためには、できる限り早い段階から学習を始めることが重要となってくる。だが視覚障害者がプログラミングを学ぶためにはまずスクリーンリーダーによるPCの操作方法をマスターしなければならず、特に子供がプログラミングを学ぶための大きな障壁となっていた。
一般的に流通している子供向けのプログラミング教材の多くは視覚的であり、ドラッグ&ドロップによる操作は視覚に障害を持つ子供は利用できない。これは学校におけるプログラミング学習の格差の要因ともなっている。

この問題を解決するかもしれないのが「Code Jumper」だ。
Code Jumperにはカラフルに色付けされた様々な形状のブロック(それぞれに命令コードが割り当てられている)とこれらを接続するハブが含まれる。視覚に障害を持っていても、ブロックの形や色、印刷された大きな文字を手がかりにブロックを組み合わせてプログラムを作成できる。組み立てができたら実行ボタンを押すことによりプログラムに応じた音声が再生される仕組みだ。
子供達はブロックの組み変えと音声フィードバックを繰り返しながら、命令のシーケンスやループ、分岐、変数、デバッグといったプログラミングの基礎を遊びながら学ぶことができるという。専門知識を持たない教師のためのガイドやオンライントレーニングなどのサポートも充実している。

Code Jumperで得られたスキルと楽しいプログラミング体験は、PCによるプログラミング言語学習へのハードルを大きく下げるだろう。実際、実証実験に参加した後にPCでのPython学習に進んでいる生徒もいるとのことだ。
もちろんこれは障害を持たない子供にもとても役立つ。パソコンの画面だけで学習するよりも、カラフルでユニークな形、しかもおしゃべりするブロックの方が興味を引くことは間違いないはずだ。障害を持つ子供と障害を持たない子供が、一緒に楽しくプログラミングを学習できる、それがCode Jumperの魅力の一つだろう。

現時点でCode Jumperは英語でのみ利用できる。
APHは販売チャネルとしてカナダHumanWare社と提携しており、2020年の早い時期に北米と英国、オーストラリアで発売予定だ。他の言語や地域への拡大も計画されている。



2020年1月9日木曜日

[雑記] 盲人と象のお話。


少し前になるが、このようなニュース記事を読んだ。
これはインド、ケララ州Kottoorにあるthe Elephant Rehabilitation Centreで開催された象のイベントに盲学校から23人の生徒が招待され、象の模型や象の皮に触れたり雑煮関する様々なレクチャーを受けた、という、実にほのぼのとしたトピックスである。

そう、インドといえば象である。
インドを訪問したことはないが一昔前の日本の野良犬よろしく、街中に野良象がウロウロしている、というイメージがあるが多分それは間違ってるはず。
調べてみると観光地の象がひどい目に遭っていたり野生の象が人を襲うなんてニュースがあったりして少しションボリしてしまった。でもヒンドゥー教にはガネーシャという象の神様もいるし、インドの人々にとって象は文化に深く根ざしている「特別な動物」であることは、今も昔も変わりはないだろう。

ただ生まれつき目が見えない者にとって、象がどのような姿をしているのかを理解するのはとっても難しい。
「大きい、四つ足の動物」
「鼻が長い」
「牙がある」
「おっきい耳」
「つぶらなお目目」
そう言葉で説明されてもピンとこない。
小さな動物であれば手で触れて全体の姿を確かめることはできるが、象ともなると子供の象でも結構でかい。下手すると踏まれてしまうかもしれない。
となると、先述の記事のようなレクチャーが重要になってくるのだろう。

さて「インド人と象との関わり」について、あれこれ調べていると、とあるインド発祥の寓話が出てきた。
要約すると「盲人は象の一部分しか触れることができず、触れた場所によって象を違った言葉で表現する。展示て、異なった考えを持った同志、お互いの意見を尊重するべき。」といった感じ。この寓話は微妙に姿を変えつつ、世界中に広まっているようだ。
ここで一つわかることは、古今東西の人々に「目が見えないと象の全体像を掴むのは大変」という共通の認識があるということだろう。
Wikiを読んでみると、地域によって、この寓話の意味というか教訓のニュアンスが微妙に異なっているのも興味深い。これはその地域での「盲人観」の現れなのだろうか。結構、当事者としてなんだそれと思ってしまうものもある。

そういえば各地に古くから伝わる寓話や諺、格言には結構「盲人」が出てくる。今はもう使われなくなったものも多いが、それを含め世間一般が盲人をどのように見ていたのかを表す歴史的な資料として調べてみるのも面白いかもしれない。というかもうすでに研究がありそう。今度探してみようと思ったのだった。


2020年1月4日土曜日

2019年、気になったあれこれをざっくり総括。


2020年を迎えるにあたり、今更ではあるが2019年に起こったあれこれを振り返ってみることにした。個人的に興味を持っているのはテクノロジーやガジェット、アプリケーションが中心。しかもメインは視覚支援ということで、かなり偏りはあるとは思うが、視覚障害者としてワクワクしたり考えさせられたことなどを6つのキーワードにまとめて見た。
それに続いて筆者が日々発信してきた情報から印象的だったトピックスを月別にまとめている。アーカイブのダウンロードもあるので、ご興味あればどうぞ。
まあ思いつきのメモ程度なので、こんなこともあったのね程度に読んでいただければ幸いである。2020年もよろしくお願いいたします。


その1:2019年に気になった6つのキーワード。


1. 画像認識AIアプリ。

スマホのカメラで撮影した文字や物体を解析し、読み上げるアプリは以前から存在はしていたが、日本ではあまり注目されてこなかった。それはローカライズの問題だったり実用性に対する疑問もあったかもしれない。
この状況を一変させたのが、2019年のサマーセールで一躍脚光を浴びた「Envision AI」だろう。リアルタイムのテキスト読み上げ機能は、多くの視覚障害者の生活を大きく変えたのではないだろうか。筆者が勝手にライバル視している「Seeing AI」も少し遅れて日本語のリアルタイム認識や年末には日本語化もされ注目された。この2アプリの進化は今年もよう注目である。特にシーンやオブジェクト認識精度の向上に期待。
このほかにも、Googleの「Lookout」、そしてiPhone版のリリースが待ち遠しい「Sullivan plus」など、このジャンルはまだまだアツい気がする。

2. Apple製品。

なんだかんだ言っても、毎日触れ情報取得の基本でもあるスマートフォンやパソコンの変化は日常生活に大きな影響を及ぼすものだ。それは障害のある、なしに関わらず。
で、iOS13。リリースからしばらくはバグも多くストレスもあったが、新機能であるカスタムコマンドやアクティビティは、いまやこれなしではいられないほど便利に使っている。たぶん2020年はiOS14だと思うけど、安定するまで導入はやめようかなあ。でも無意識にインストールしてると思う。
macOS Catalinaの方が微妙かな?動作が重くなっちゃったのは筆者のMacBookが古いのが原因と思うが、日本語Voiceover環境の改善はまだ遠そう。なぜか読みの不具合だけは改善されてるけど。あと今年はApple Watch買いたいです。

3. 屋内ナビゲーション。

2019年も、様々なスマートフォンアプリを用いた屋内ナビゲーション技術が開発されてきた。その中心となるのはBluetoothビーコンを用いる方式で、これはすでにイスラエルの「Righthear」など実用化されているものもある。国内ではこれまで実証実験が繰り返されてきた「Navcog」が、日本橋室町地区において「インクルーシブ・ナビ」として公開されたニュースは大きい。
一方で、ビーコンに頼らないナビゲーション技術にも注目が集まっており、特にスペインの「Navilens」はその使い勝手やコストの面で高い評価を得ている。また国内では点字ブロックにQRコードを敷設するタイプのナビゲーションプロジェクトが複数実用化に向けて勧められている。その一つ「Sikai」は今年中には社会実装が予定されているようだ。
これまで特に日本では技術的な話題が中心だったナビゲーション技術だが、今年はいよいよ本格的に社会実装が進められる年になるかもしれない。どんどん試してフィードバックしましょう。
屋内ナビについてはGoogle Mapsに視覚障害者向けの詳細な音声ナビが追加されたニュースが大きい。とにかくナビはビーコン、測位衛星、画像認識などハイブリッドな時代になりそう?でも同時に施設設備や歩行訓練など多面的アプローチが必要とも思うな。

4. エンターテイメントの包括性。

これは主に海外でのお話。
2019年には大手の玩具メーカーから多様性やインクルージョンを意識した多くの製品が登場した。車椅子や義足のバービー人形点字がついたUNO、LEGOは点字を学習するブロックと、スクリーンリーダーで読むことができるテキスト版組み立てマニュアルをリリースしている。またプログラミング教育をアクセシブルにするMicrosoftの「Code Jumper」にも注目が集まっている。
一方、美術館や博物館、劇場や映画館などの文化施設のインクルージョンに関するニュースも目立っていたし、映画などのメディア制作現場の障害者雇用の議論もよく見られた。
他ジャンルと比べアクセシビリティ的には遅れているイメージが強かったゲーム業界でも、米国ではCVAA法の影響もあり、少しずつだが障害を持つゲーマーを意識したタイトルや製品がリリースされるようになっている。その先人を着るのがMicrosoftだ。
とかく後回しにされそうなエンターテイメントのアクセシビリティだが、文化は生活を豊に楽しくするだけでなく、個人の考え方や思想にも大きく影響を与える分野だ。今年もこの傾向が一層加速することを期待したい。そして願わくばこの波が日本にもやってきて欲しいな。あまり期待はできないけどね。

5. Webアクセシビリティ。

アクセシビリティ関連で2019年、最も注目されたトピックスの一つが、米国ドミノのWeb訴訟の行方だった。結果としては最高裁判所がドミノの上告を棄却し、原告である視覚障害者の訴えを認めた第九巡回裁判所の判決が確定、事実上ドミノの敗訴という結果になった。
この訴訟は、障害者がWebを利用できないことが、公共施設のアクセシビリティを義務付けるada法に違反するかどうかが焦点であり、多くの議論を呼んでいたが、最高裁による判断が下されたことで一応の決着がついた格好となった。それでも、果たしてどこまでが違反で、どこからが違反にならないのかの明確かつ法的拘束力のあるガイドラインが存在していないなど、このあたりまだまだモメそうな予感もする。それでも少なくとも米国ではWebアクセシビリティは否応なく進められるだろう。
一方で国内では、熱心に頑張っている方々もいらっしゃり筆者も大変勉強させていただいているのだが、大勢ではWebアクセシビリティに関する意識は低いと言わざるを得ない。代替テキストはいまだにレア、字幕も音声解説もない動画、配慮のないコンテンツ階層、果てはいまだに採用される画像認証やパズル認証。
障害当事者ユーザーとしては、地道にフィードバックしていくしかないのだろうなあ。跡アプリもね。

6. 読書のバリアフリー。

読書バリアフリー法案が可決し、にわかに動きが活発化してきた読書環境。点訳・音訳とそれに関わる出版社からのテキスト提供問題、電子書籍やPDFのアクセシビリティ、オーディオブックやPodcastなど読書にまつわる話題が多かった。この法律の影響が具体的な形として出てくるのはもう少し先になるのかな。この辺りは不勉強なので、今のところは1ユーザーとしてウォッチ中。コンテンツ提供側の議論と同時に、ユーザーの利便性にも注目していきたい。
個人的に困ってるのは、Macでのデイジー再生環境。情報元む。


その2:2019年、月別トピックス。


筆者はほぼ毎日、興味のある支援テクノロジー関連の情報をツイートしているのだが、その中から2019年に注目したトピックスを月別にまとめて見た。これもまた視覚障害者として偏りのある感じになっているのでご容赦願いたいのだった。
なおツイートした情報はテキストデータにまとめてこちらにアップロードしている(Zip形式)。ご興味あればどうぞ。

■1月

1/4 はじめての世界点字デー
米国でCVAA法がビデオゲームに適用。アクセシビリティを義務化。
ビヨンセの公式Webが提訴される
Birdbox challengeが流行
CES 2019開催
AirPodsのLive listenの裏技が話題に
米国、ドミノのA11Y訴訟。第九巡回裁判所で原告が勝訴。ドミノは上告。
Android 9にダークモードが実装される?
スマート白杖「WeWalk」、NYで実証実験。
Microsoft「Code Jumper」発表。
Bluetooth 5.1策定。測位精度が飛躍的に向上か。

■2月

Google「Live Transcribe」「Sound Amplifier」リリース。
アクセシビリティ関連の絵文字が承認。2019年秋にも登場。
Microsoft、新型HoloLens発表。
国内:パナソニックとJR西日本が大阪でARナビ実験。
国内:DNPなど、新宿駅で「HAND」実験。

■3月

3/18 点字ブロックの日。Googleのロゴも祝う。
インドで点字ラップトップ「DotBook」発表。
英国で視覚障害者に特化した自動運転車の実験開始。
CSUN 2019開催。発表いろいろ。
Seeing AI 3.0リリース。新機能「Photo explore」。
Google Lookoutリリース。まずは北米、Pixcel端末から。
iOS 12.2で導入されたAccessibility eventsに懸念の声。
国内:「Oton glass」がJINSと業務提携。
国内:radikoアプリのリニューアルでアクセシビリティが問題に。
国内:映画『ナイトクルージング』公開

■4月

4/18 イースター。世界各地でインクルーシブな催し。
LEGOが点字教育向けブロックを開発。
マイクロソフト、VRのアクセシビリティを向上させるツールキット「SeeingVR」発表。
Google、Chromeにリーダー機能を追加の動き。
Apple、iOS 12.3、macOS 10.14.5でAccessibility eventsを削除か?
ビデオゲーム「Sekiro」の難易度とアクセシビリティが議論に。
Switchに視覚サポート機能が追加される。
国内:iOS版radikoアプリのアクセシビリティがちょっとだけ改善。

■5月

5/16 世界アクセシビリティ啓発デー。
MicrosoftがXbox用点字コントローラーの特許を申請。
Google I/O 2019。アクセシビリティ関連の発表も多数。
AIRAがボストン近郊で無料サービスを試験提供。

■6月

EU、新車の電気自動車の低速走行時の音響装置を7月から義務化。
チリで皆既日食。視覚障害者も音と点字で観測。
Second Sightの脳インプラント型人工視覚「Orion」。
エルサレム旧市街でスマホを用いたナビゲーションを提供。
スペイン、スマホでマーカーを撮影し視覚障害者をナビする「Navilens」。
国内:読書バリアフリー法が成立。

■7月

Facebookのトラブルで、写真の自動代替テキストの存在に注目が集まる。
インド。触覚で識別できない紙幣に批判高まる。
米国スミソニアン博物館でAIRAサービスを提供。
iPadゲームで視覚支援教育「ObjectiveEd]。
国内:車椅子のバービー人形が日本でも発売。
国内:参院選で2名の重度障害者が当選。
国内:アプリで障害者を支援する「May ii」公開。

■8月

画像認識アプリ「Envision AI」、サマーセールで話題に。
LEGO、視覚障害者向けにスクリーンリーダー対応の組み立て説明書を公開。
作者も視覚障害者。盲目の少女が主人公のコミック「Unseen」。
音声アシスタントでWebを検索し内容を読み上げる「VERSE」発表。
国内:東京メトロ有楽町線で「Sikai」の最終実証実験。

■9月

9/10 Apple発表会。iPhone 11やiOS13などを発表。
米Amazon、Echo Shoで商品を識別する機能「Show and Tell」発表。
PC向けオーディオゲーム「The Vale」のデモ版がリリース。
Xbox用ゲーム「Gears 5」のアクセシビリティが超充実と話題に。
Samsung India、盲ろう者とのコミュニケーションアプリ「Good Vibes」発表。
米国Vispero、JAWSベースのキオスク端末を開発。
X・アンバサダーズ、視覚障害者を意識した音響だけのMVアプリ「Boom」をリリース。
国内:note、画像に代替テキストを加える機能をリリース。

■10月

米最高裁、ドミノに対するWebアクセシビリティ訴訟でドミノ側の上告を棄却。
海外で「Be my eyes」と各社の提携が進む。Google、Microsoft、NFB、P&Gなど。
モバイル向けオーディオゲーム「AudioWizards」リリース。
Apple、iOS13.2ベータで、新しい絵文字を追加。
Google、Chromeのイメージ解析機能を正式ローンチ。
「Orbit reader 20」が、新しい点字ディスプレイ用の標準HIDドライバへの対応を発表。Apple TV+。視覚障害者だけの世界を描くフィクション「See」発表。
米Mattel、点字を備えたUNOカードセットをリリース。
WHO、世界の22億人以上に「視覚障害」があることを、発表。
Googleマップに視覚障害者向けの「詳細な音声ガイダンス」機能を追加。
国内:東京、コレド室町に「インクルーシブ・ナビ」が導入される。
国内:Bose Frames販売開始。

■11月

11/1 点字の日。11/3までサイトワールド開催。
11/15 白杖のひ。
AIRA、MicrosoftおよびMoovitと提携。
韓国、TUAT、AIを用いた視覚障害者向け統合アプリ「Sullivan Plus」リリース。
Logitech、障害を持つゲーマーのためのコントロールキットをリリース。
「Code Jumper」がCESイノベーション賞を受賞。
Microsoft、ゲーム開発者向けにアクセシビリティに関するガイドラインをリリース。
国内:日盲連が「日本視覚障害者団体連合」に名称変更。
国内:公共交通機関のバリアフリー整備ガイドラインを改定。

■12月

12/3 国際障害者デー。
「「Seeing AI」がバージョン3.3で日本語化。
米国Comcastのアクセシビリティへの取り組み。
エミュレータ「 RetroArch」にゲーム内テキストの読み上げ機能を搭載。
インド、デリー。政府が市内400の飲食店やホテルに点字による情報提供を指示。
マドリードで開催されたcオp25で様々な支援技術を提供。
支援技術開発者の草分け、Jim Thatcher氏が死去。


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...