2019年6月27日木曜日

[粗訳] Apple、「マップ」をアクセシブルにする特許を申請。


なかなか製品として実現することがなさそうなAppleの特許、いや、どこかでひっそりと活用されているのかもしれないけど。今回の特許は「マップ」のスクリーンリーダー対応ということで、少しは実現性あるのかな?
情報がぼんやりしているので初めはピンとこなかったが、ポイントはタッチを用いて周辺空間を探索する、という技術だろうか。確かにVoiceoverを使う視覚障害者にとってマップは基本滝に「点」の情報なので、二次元マップで得られるような「全体を俯瞰」した空間情報がタッチや音声で的確に得られるのなら、かなり画期的なものになりそうではある。点と点を結ぶ空間に、どのような風景が広がっているのか。それがわかるようになれば、視覚障害者のお出かけも、もっと充実することだろう。ちなみに筆者の脳内マップで情報が無い空間は、まるでバブル経済末期のように「空き地」となっていて、ちょっと寂しい……。


Appleは「マップ」を視覚障害者にもアクセシブルにしたい(らしい)

By Dennis Sellers

Appleは、同社の「マップ」を視覚障害者でも便利に使えるようなアクセシブルなアプリにしたいと考えている。ハイテクの巨人は「touch-based exploration of maps for screen reader users.(スクリーンリーダーユーザー向けのタッチ操作ベースの地図探索)」の特許(番号 10,330,490)を申請した。
この特許は、ビジュアル機能を用いない電子端末に、対話型マップを提供することで、視覚障害のあるユーザがマップにアクセスできるようにする。

マップは端末の現在位置、またはユーザによって入力された位置に基づいて地図を探索する。近くにある興味を持った道路や場所、または出発地から到着地までのルートは、音声出力によって識別することができる。そしてユーザーは電子機器の画面にタッチすることで、近所周辺のおおよその空間を探索できるという。
また、ユーザはルートに沿って移動しているときやルートから外れたとき、さらに交差点や興味のある場所に近づいているとき、地形が変化しているときに、アラートを受けることができる。
Appleによると、これにより視覚に障害を持つユーザーでも、不慣れな環境を実際に探索することなく、都市レベルの空間関係を習得することができるようになるとのことだ。

特許出願書類の中でAppleはこのように述べている。
マップアプリによってユーザーは、未知の土地について知り、それに適応することができる。たとえば、道路の相対位置を視覚的に表すマップを使用すれば、出発地から到着地までの移動ルートを決めたり、ユーザにとって関心のある場所を見つけ、そこへ移動し、その場所へたどり着くことができる。
だが、マップは一般的には二次元のビジュアルを用いており、そのため視覚障害のあるユーザが得られる情報は限られている。加えて意識的に探していない情報に関しては、情報へのアクセスはさらに制限される。例えば指定された出発地点から到着地までのルートを案内することはできても、それ以外の関心のあるかもしれない領域内の全体的な空間関係を簡潔に伝えることは難しい。視覚障害者は、未知の領域の道路や場所についての全体的な理解を得ることが困難または不可能なため、新しい環境の中で迷ったり混乱を感じてしまう。
Appleはこれを変えようとしている。


※もちろん、Appleは米国特許商標庁から多くの特許を出願し認められているが、その多くは、日の目を見ない発明である。実際の製品でどの特許が実現するかは決してわからない。

2019年6月23日日曜日

スペイン発。視覚障害者をカラフルに誘導する「Navilens」。

Navilensのマーカー(画像引用元

いま、スペイン、バルセロナの地下鉄のあちらこちらに、ちょっと不思議な幾何学模様のステッカーが貼られているという。券売機やエスカレーター、プラットホームやトイレの端々に見つけられるおよそ5cm四方のカラフルなステッカーは、「Navilens(ナビレンズ)」と呼ばれるシステムのマーカーだ。

スペインの同名スタートアップとアリカンテ大学のMobile Vision Research Labによって共同開発された「Navilens」は、コンピュータービジョン技術を応用し、スマートフォンと施設内に貼られたマーカーを通じて、視覚障害者への情報提供と移動支援を目的としたシステムである。人の手を借りるか、脳内地図をトレーニングしなければ移動することが困難な視覚障害者でも、単独で自由かつ安全に施設を利用できるように設計されているとのことだ。
現在、バルセロナのTransports Metropolitans de Barcelona (TMB)などの協力を得て、地下鉄やバス停などの公共交通機関や一部の公共施設での実証実験が行われている。

Navilensの使い方はシンプルだ。iPhoneもしくはAndroidスマートフォンに無料のNavilensアプリをインストールしておき、マーカーが設置されている施設でアプリを起動。スマートフォンのカメラでマーカーを捉えるとスマートフォンが振動し、さまざまな情報を音声で伝えてくれる。この仕組みだけを聞くとQRコードと大きな違いはないようにも思えるが、Navilensには視覚障害者でも容易にマーカーを読み取るための工夫が施されている。

1.高速なスキャニング
Navilensはマーカーを瞬時に読み込むことができる。QRコードのようにコードにカメラを向けてフォーカスする必要がないため、おおよその方向にスマートフォンをかざすだけで素早くマーカーを見つけることができる。公式サイトによれば、移動しながらでも利用できるとのことだ。

2.長距離から複数のマーカーを検出
マーカーは最大で15メートル程度の距離からもスキャンすることができる。さらに160度という広角で複数のマーカーを同時に認識することも可能という(最大200個)。QRコードのように、マーカーのある場所を覚えておく必要はない。

3.マーカーまでの距離と方角を算出
これがQRコードとの最大の違いだろう。マーカーを検出すると、Navilensはスマートフォンからマーカーまでの正確な距離と方角を計算してユーザーに報告する。つまり情報の取得だけではなく、ナビゲーションにも使えるということだ。視覚障害者は行きたいポイントを見つけたら、示された方向へ進めばいい。

QRコードのように、コードの場所を定めてフォーカスロックする必要がないというのは、視覚障害者にとって非常に大きなアドバンテージのように思える。マーカーの配置にもよるが、15メートルの範囲なら、何かしらのものは見つかるのではないだろうか。想像だけではあるが、当事者として安心感をお覚える。実際にNavilensを体験した視覚障害者の評判も上々のようだ。

またNavilensは、マーカーに設備の名前だけでなくあらゆる情報をネットワークを通じて取得することができる。例えば列車の運行情報や飲食店のメニューなどが挙げられる。
また多言語対応も考慮されており、端末の言語設定に応じて表示する言語を切り替えることもできるようだ。視覚障害者だけでなく外国人観光客など多くの人々にとっても利益をもたらすと開発者は語っている。

マーカーを用いた情報提供やナビゲーションは、電源が必要で故障リスクを持つBLEビーコンを用いるシステムと比べ、圧倒的に導入・運用コストが低いというメリットがある。NavilensはQRコードやバーコードといった従来のマーカー技術を拡張することで、視覚障害者に対する低コストかつフレキシブルな情報提供とナビゲーションを実現しているようだ。ここは想像だが、BLEビーコンと比べた時のデメリットは、暗い場所に弱いとか、障害物の影に隠れると使えないというくらいだろうか。

このシステムが一般にも幅広く受け入れられるには、マーカーのデザインも重要になってくるだろう。筆者はデザインを確認することはできないが、支援技術っぽくないポップで違和感のないものなら受け入れられるかもしれない。ただ「カラフル」ということなのでモノトーンなインテリアだとちょっと浮くかな?

Navilensは将来的に、空港やホテルといった施設だけでなく、屋外など幅広い施設にもこの技術を広めていきたいと考えているようだ。筆者の妄想だが、同時に複数のマーカーをキャプチャーできるなら、コンビニなどの商品棚にマーカーを貼付して並んでいる商品のリストを取得したり(マーカーの大きさがネックかな)、それこそ音声コード代わりにも応用できるのではないだろうか。

必ずしも万能なソリューションではないかもしれないが、設置条件を整えられれば、かなり有効な技術のように思える。電波やセンサーではなく、コンピュータービジョンを用いたナビゲーションの可能性を「Navilens」に感じることができた。
うーん、ぜひ一度体験してみたいものだ。
スペインいいところみたいだし。ねえ。

関連リンク:


2019年6月18日火曜日

[粗訳] iOS 13 DB1で発見されたVoiceover新機能まとめ。


※以下は「[feature] Everything new with VoiceOver in iOS 13 DB1 / iOSBeta」をあっさり翻訳したものです。また、WWDC 2019で発表・報道されたアクセシビリティ関連情報についてはこのエントリーからたどることもできます。

iOS 13 DB1におけるVoiceOverの新機能まとめ。

iOS13のVoiceOver機能で何が変更されたのか気になっている人のために、私が発見したことを幅広く列挙しておこう。読者の1%以下にも満たない機能のために記事を連投しないよう、これらすべてを一箇所にまとめておこうと思う。私のようにこのアクセシビリティ機能に依存している人にとって、iOS13は本当にエキサイティングなリリースだと思う。

カスタマイズ:

・触覚フィードバック。
Voiceoverのほとんどのサウンドに対して、触覚フィードバックが加わる。項目のナビゲート、タップ、ローターの回転、エラーなど。

・サウンドと触覚のカスタマイズ。
サウンドおよび触覚フィードバックは全体のオン/オフだけでなく、個々のエフェクトを個別にオン/オフすることができるようになる。

・句読点レベルのカスタマイズ。
読み上げ詳細度の句読点レベルを「全て、一部、なし」だけでなく、ユーザーの好みに合わせて独自にカスタマイズできる。この新機能では、記号がスピーチシンセサイザの直前にあるか、別の方法で読み上げるかで読み方を変更できる。たとえば、#文字のデフォルトの発音を「Number」から「hashtag」に変更したり、単に「Hash」と短くすることもできる。この設定はiCloudを通じて他のiOSデバイスやMacと同期され、他のユーザーと共有したり、ファイルへエクスポートしてバックアップを作成、後でインポートすることもできる。

・カスタムアクティビティ。
Voiceoverの複数の設定を作成して切り替えられる、カスタムアクティビティ機能が追加される。アクティビティは主導もしくは特定のアプリ、または特定のコンテキスト(文字の入力など)で切り替えることができる。Dev Beta 1でアクティビティに含められる設定は音声、音声の速度、音量、句読点レベルなど。

・ジェスチャとコマンドのカスタマイズ。
既存のジェスチャやBluetoothキーボードを用いたVoiceoverコマンドの割り当てを変更したり、新しいジェスチャやキーボードコマンドを追加することができる。その中には、各要素へのナビゲーション、音声の調整、ホーム画面への移動、アプリスイッチャーや通知、コントロールセンターへのアクセスといった基本的な機能から、あらゆるショートカットを実行するような非常に高度で強力な機能も含まれる。ほとんどのジェスチャはカスタマイズ可能だが、項目をナビゲーションする1本指のスワイプと決定に用いるダブルタップは変更できない。

・絵文字の読み上げを完全に無効に。
絵文字だらけのスパムや、SNSで見かける絵文字を含めたユーザー名にうんざりしているなら、絵文字の読み上げをOSレベルでオフにすることができる。

・画像説明機能の操作性向上。
画像の説明の処理方法をカスタマイズできるようになった。
iOS 11以降、Appleは新しい機械学習機能を使って画像上のオブジェクトやテキストを推測し、画像を3本指でタップした時に追加情報が得られた場合、VoiceOverはその内容を読み上げる。新機能ではVoiceoverが使用可能であれば画像の説明を自動的に読み上げたり、音声で通知することができるようになる。

点字:

・新しい点字トランスレータ。
VoiceOverは、点字ディスプレイ向けの点字トランスレータとしてオープンソースの「Liblouis braille translator」を採用した。これはMicrosoftおよびGoogleも採用する標準的なトランスレータであり、多数の言語をサポートしている。ただし従来の点字テーブルも、利用したいユーザーのために引き続きサポートされる。

・新しいローター項目。
従来は音声切り替えと共通だった点字言語テーブルを変更するための独立したローターが追加される。

・点字入力の高速化。
点字ディスプレイを用いた入力が大幅にスピードアップした。これは、短縮点字を使用するときに特に有効だ。

・リストの位置を報告。
VoiceOverでリスト内の位置が点字で表示されるようになった。例えば設定アプリで「機内モード」のスイッチにフォーカスすると、スイッチの説明とともに「1/50」のようにメッセージが表示され、この項目が設定リストの50項目中の最初の項目であることを示す。現在のところ、これはリストのコンテキストとしてスピ^チはされないようだ。

その他:

・パフォーマンスの向上。
全体的なパフォーマンスが大幅に改善されている。特に、多くの項目をすばやく指でドラッグするときや、アプリの画面を切り替えるときに実感できる。

・カメラのナビゲーション。
「カメラ」アプリでは、写真を撮る際に追加のガイダンスを提供する。1つまたは複数の顔がフレーム内にいつ、どこにいるかを教えてくれたり、手に持ったデバイスが傾いている時に触覚や音声でフィードバックしてくれる。

・Voiceover音声を画面収録に記録。
画面収録でVoiceOverの音声が、録画データの音声トラックに含まれるようになった。アクセシビリティの問題をアプリ開発者に報告したい場合、この機能が非常に役立つ。記録を作成して、どこにどのような問題があるのかを正確に示すことができる。

2019年6月16日日曜日

[iPhoneアプリ] 画面操作不要。声で操作できるOCRアプリ「Voice」。


スマホ使いの視覚障害者にとって「OCR)光学式文字認識)」技術を搭載したスキャナーアプリは、印刷された文字や商品パッケージなどを読むための定番アプリジャンルだ。
だがしかし、意外なことに視覚障害者、つまりスクリーンリーダーを用いているユーザーを強く意識して開発されたスキャナーアプリは非常に少ない。スクリーンリーダー操作に対応するのはもちろん、「日常的に認識した文字を読み上げる」という視覚障害者のニーズを満たすには、操作はできるだけシンプルであるのが理想といえるが、多くのアプリは翻訳やドキュメント作成などさまざまな付帯機能がてんこ盛りで、単純に文字を読み上げたいユーザーには操作が難しかったりする。。

「Voice: OCR Document Reader(以下Voice)」はそのような状況の中、iOSのスクリーンリーダーであるVoiceoverユーザーの利便性を考えられて開発されたアプリだ。このアプリ、以前から存在はしていたようだが、2019/6/15にリリースされたバージョン4.0で機能も品質も大幅に改善され、全く新しいアプリとして生まれ変わったという。
最大の特徴は、アプリの名前が表すように「声」で操作できる点だ。

開発 Shalin Shah/価格 600円/対応OS iOS 11以上


「Voice」を使うための準備


まず「Voice」を使うための準備をする。
このアプリを利用するにはネットワーク接続が必要。iPod touchなどで利用する場合は注意しよう。また日本語を認識するには最初に「Settings」を操作して設定を開き、「Languages」から「Japanese」を選択しておく必要がある。さらに好みに応じて「Speech speed」から内蔵ボイスの読み上げスピードを調節しておく。
他の画面でも共通しているが、前の画面に戻るには先頭見出しの次にある「Go back
」を操作する。


基本的な操作方法


  1. アプリを起動するとすぐに撮影モードになるので、撮影したい書類などにiPhoneをかざす。アプリが書類の4隅を検出すると「4 corners detected」と読み上げられるのでフレーミングの参考にしよう。「Flash set to」をタップすればフラッシュの「ON/Off/Auto」を切り替え、また「Pick from photo library」から、保存済みの写真をインポートすることもできる。
  2. iPhoneに向かって「Capture」と話すか「Double tap to take a picture」ボタンを操作すれば、シャッター音が鳴り書類を撮影する。
  3. 複数の写真を続けて撮影することもできる。撮影された写真は「Photo number XX」と読み上げる部分にリストアップされ、これをダブルタップすると撮影済みの写真を削除できる。
  4. iPhoneに向かって「Read」と話すか「Read」ボタンを操作すると、テキスト抽出処理が開始される。処理が完了すると抽出されたテキストが内蔵ボイスで自動的に読み上げられる。読み上げの一時停止は「Pause」、先頭からもう一度読み上げるには「Restart page」を操作。テキストフィールドにVoiceoverカーソルをフォーカスして読み上げさせることも可能。
  5. 複数の書類を撮影した場合は「Page XX Loaded」で目的のページへジャンプするか「Previous page」「Next page」を操作して切り替えられる。

かいつまんで説明すると、アプリを起動>4隅を識別したら「Capture」と告げる>「Read」と告げる>結果を読み上げ、という操作が基本。音声コマンドを使えば、画面をタッチする必要はない。

ここで一つ注意。
筆者の環境では、どういうタイミングで発生するかは不明だが、たまに書類を撮影したり「Read」コマンドを実行するとネットワーク接続エラーが出ることがある。この状態になるとテキストの抽出はもちろん音声コマンドも使えなくなるようだ。
エラーが発生したら、iOSのマルチタスク画面を開いて「Voice」を終了し、もう一度起動すれば回復する、と思う。今の所これで回復している…。


テキストの認識品質は?


さてOCRアプリのキモであるテキスト認識能力をみてみよう。
リリースノートによれば、「Voice」は撮影した画像を自動的に補正することで抽出精度を向上させているようだ。
以下に、同じ条件下で「Voice」と定番OCRアプリ「OCR-Pro」で抽出したテキストのサンプルを掲載する。

(「Voice」の抽出結果サンプル)
  ドコモ・ハーティ講座  (iPhone7) 【iPhone を便利に使うための機能や設定】  設定を変更するには、ホーム画面にある  「設定」を開きます。 <設定> ●Wi-Fi(ワイファイ)→「オン」 ※位置情報の正確性が向上します。 (用語説明) Wi-Fi  とは、パソコンなどのネットワーク接  続に対応した機器に、無線(ワイヤレス)でネ  ットワーク接続する技術のことです。  例えば、docomoWi-Fi に接続した場合、携帯電  話の回線を使わずにインターネット接続をする  ので、パケット通信量が節約できます。
(ここまで)

(「OCR-Pro」の抽出結果サンプル)
ドコモ·ハーティ講座
(iPhone 7)
【iPhone を便利に使うための機能や
設定】
設定を変更するには、
「設定」
を開きます。
ホーム画面にある
く設定>
●Wi-Fi(ワイファイ)→「オン」
※位置情報の正確性が向上します。
(用語説明)
Wi-fi とは、パソコンなどのネットワーク接
続に対応した機器に、無線(ワイヤレス)でネ
ットワーク接続する技術のことです。
例えば、docomolWi-Fi に接続した場合、携帯電
話の回線を使わずにインターネット接続をする
ので、パケット通信量が節約できます。
(ここまで)

「OCR-Pro」は文を自動的に判別して開業を入れるため読みやすいが(若干、開業が多すぎる気もしなくもないが)、文字の認識は「Voice」も負けていないレベル。ざっくりと使ってみた感じでは、書類の内容を把握する用途には十分実用的な品質に思えた。


「Voice」の特徴をまとめてみる


まだ短い期間ではあるが、使った範囲で、このアプリの特徴を挙げてみると、

良いと思ったところ
  • 撮影と抽出を音声で操作できる
  • 複数のページをまとめて抽出できる
  • 書類の4隅検出機能を備える
  • 抽出したテキストを自動的に読み上げる

これはイマイチと思ったところ
  • 時々ネットワーク接続のエラーが出る
  • 抽出したテキストの共有ができない
  • インターフェイスが英語

といった感じだろうか。
「音声コマンドによる撮影」は、最初聞いたとき「色物」的な印象を持っていたが、いざ使ってみるとこれが意外にも快適だった。シャッターボタンを操作する時にフレーミングがずれる心配がないので、安心感が強い。
そしてなんといっても、単一ページであれば音声コマンドを用いることで、アプリを起動してから読み上げまで、一切のジェスチャ操作が不要なのだ。これはジェスチャに慣れていないユーザーにも適しているだろう。

まだ(実質的に)ファーストリリースということもあり、ネットワーク接続が不安定だったり機能が少ないなど不満な部分もあるが、開発元からは音声コマンドの追加を含めたバージョンアップが予告されているので、今後の動きが楽しみなアプリだ。

個人的には、iPhone使いの視覚障害者にオススメのOCRアプリは「OCR-Pro」(残念ながら無料版は公開終了)もしくは「Google 翻訳」あたりが定番だったが、Voiceoverユーザーを強く意識して開発されている「Voice」は、これらの牙城を崩すポテンシャルを秘めているアプリと感じた。本当に音声コマンドは楽で良いよ!

関連アプリ:
OCR-pro 開発 Gen Shinozaki/価格 720円/対応OS iOS 8以上
Google 翻訳 開発 Google LLC/価格 無料/対応OS iOS 10以上


※アプリの機能や価格は、記事執筆時点のものです。

2019年6月14日金曜日

[粗訳] 脳を通じて「視覚をシェアする」新技術。


再生医療やインプラント人工視覚など、視覚障害者に「見る」能力を与える技術はまだまだ現実性が見えていない。だがいつかきっと、これらの技術により多くの視覚障害者が光を取り戻せる日が来ることを願うばかりだ。
そんな中「他人の目を通じてものを見る」という、にわかには信じがたい技術のニュースが飛び込んできた。他のソースを読むとこれは視覚障害者専用というわけではなく、新しい軍事技術の一つとして研究されているようだ。
まるで一昔前のSFに出てきそうなこの技術、果たしてどこまで本気なのかな?

※以下は「New Tech Could Allow Blind People To See Through The Eyes Of Others」をほんのり翻訳したものです。私にはとても難解です。

新しい技術は、他人の目を通じて視覚障害者が「見る」ことを実現する。

テキサス州ヒューストンにあるライス大学の研究チームは、視覚障害者が晴眼者の目を通して世界を見ることを可能にする技術を開発している。

この途方もないプロジェクトが成功すれば、晴眼者の視覚を読み取り、その人が見た画像を、20分の1秒以内に視覚障害者の脳に転送(テレパシー)することで、2人の脳の間で視覚画像を共有できるようになるという。

神経工学のチームが、手術を必要とせずに人間の脳とマシンを直接接続するためのヘッドセットやヘルメットの開発に着手した。このヘッドセットとそれを支える技術によって、テレパシーによる映像の共有が可能になる。

研究者は、このヘッドセットから発せられる光と磁場の両方を用いて、着用者の脳内の特別に再プログラムされたニューロンと相互作用させ、個人が見た視覚的イメージを視覚障害者の脳内に伝達することでコンセプトを実証する計画だ。

4年間続けられるこの野心的な研究は、「Magnetic, Optical and Acoustic Neural Access(MOANA)」プロジェクトと呼ばれる。同社は米国防総省の国防高等研究計画庁(DARPA)から1800万ドルの資金提供を受けている。

DARPAがこのプロジェクトに関心を持っているのは、人間の脳とマシンの間でデータを送受信できる双方向インターフェースの開発を目指す「Next-Generation Nonsurgical Neurotechnology(N3)」プログラムのためだ。

ふたつの脳の間で映像を共有するという話は絵空事のように聞こえる。しかし研究チームのリーダーを務めるJacob Robinson氏は、最近の技術革新の数々がこのアイデアを実現可能にしたと語る。

「人の視覚に関わるの神経活動を解読し、それを1/20秒以内で別の人の脳内に再現しなければなリマせん。」とRobinson氏。
「手術なしでそれを行う技術はまだ存在しません。我々がそれを作るのです。」

人間の脳に装置を埋め込む手術は許されていないため、ライス大学の研究チームは、光、超音波、電磁エネルギーを組み合わせて脳の活動を読み書きする計画だ。MOANAでは、この3つをすべて取り入れた技術をテストする。

Robinson氏によると、MOANAのデコードおよびエンコード技術はいずれも、現在臨床試験中の黄斑変性、一部のガン、神経疾患の治療技術である、ウイルスベクターを用いた遺伝子伝達技術を採用する予定という。

ライス大学の研究チームは、神経活動を「読み取る」ために、ニューロンが活動しているときや firingしているときに光を吸収するように設計された「カルシウム依存性指示薬」と呼ばれる合成タンパク質を作ルようにニューロンを再プログラムする。

「我々の目的は、頭蓋骨を2回通過する光子に含まれる情報をキャプチャーし、解釈することです。光子は最初に視覚皮質に到達し、反射して検出器に戻されます。」
と共同研究者のAshok Veeraraghavan氏は述べた。

MOANAのチームには、Rice、Baylor College of Medicine、Jan and Dan Duncan Neurological Research Institute at Texas Children's Hospital、Duke University、Columbia University、Yale's John B.Pierce Laboratoryの15人の共同研究者が参加している。


※他の情報ソース:


2019年6月13日木曜日

[粗訳] AIRAユーザーが語る支援技術のジレンマ。


※このエントリーは「The promise and pitfalls of assistive technologies for people with visual impairments | CBC Radio」をざっくり翻訳したものです。

視覚障害者に対する支援技術の未来と落とし穴

Chelsea Mohler氏は、Airaのような支援サービスにお金を払うことで、他人に助けを求めた時に発生する「パワーの不均衡」を解消できると語る。

視覚障害を持って生まれたMohler氏は、支援技術を使いこなしている。しかし、ここ数年、あるイノベーションが、Uberを利用したり、コーヒーを注文したり、洋服を選んだりといったタスクに新しい種類の支援を提供している。
Airaは、視覚障害者の周囲をリアルタイムで説明するエージェントへの電話アクセスを提供する有料サービスだ。
Mohler氏の場合、自分のスマートフォンを胸に固定して、自分が見ているものをAIRAエージェントに伝えることができる。

「人生が大きく変わりました」
Mohler氏はオープンホストのPiya Chattopadhyayに語った。

・プライバシーを犠牲にする価値があるなら

もちろん自分の居場所にAIRAのエージェントを招待し、あなたの一挙一動を見てもらうことは、プライバシーの大半に別れのキスをすることを意味する。Airaが稼働している間、ユーザーのスマートフォンは動画だけでなく、UberやLyftといった他のアプリからのデータも送信する。位置情報が収集され、画面共有が日常的に行われる。
しかし、Mohler氏のようなユーザーは、提供されるサービスに十分な価値を見出してぃる。

「私が気に入っている理由は、それが有料サービスだから。援助にお金を払うことで、一定の質のサービスが期待できるということです。」

プライバシーに関する懸念を軽減するため、Airaは「プライバシーモード」機能を提供しており、ユーザーは接続されたエージェントに対して、ビデオとオーディオへのアクセスを一時停止することができる。通話を再開する準備ができたら、この機能を無効にすればいい。たとえば、Airaのエージェントが選んでくれた服に着替えるときに「プライバシーモード」を有効にする、といった具合だ。

ニュージャージー州のAiraユーザーであるMary Fernandez氏は、エージェントは職業上の境界線を維持するために優れた仕事をしており、24時間体制でアクセスできるため、学校への復帰が容易になったと述べた。

「大学院生として、定時を守る必要はありません。」と彼女は言った。
Airaは周囲の人々からの助けを減らし、いつでもどこでも、必要な時に支援を求めることができる。

・支援技術の予想外のコスト

Fernandez氏が懸念するのはコストだ。Airaユーザーは、利用時間に応じて月額99ドルから329ドルの使用料が必要だ。現在、Fernandez氏が所属する大学はこの費用を負担しており、将来の就職先でも同様の配慮をしてくれることを期待している。しかし、多くの視覚障害者にとって、AIRAは手の届かないサービスだと彼女は言う。

「米国の視覚障害者の大多数が失業していることを考えると、これは極めて大きな金額です。」
AiraはMary Fernandez氏にとって素晴らしいサービスだったが、彼女は米国の職場や教育の場におけるアクセシビリティの問題が早急に解決されることを願っている。

カナダ国立盲人研究所が2018年に発表した報告書によると、カナダにおける視覚障害者の失業率は約70%だという。
撮影した映像を補正しユーザーの目の前にあるディスプレイに表示するスマートグラスから、写真に写っている物体やテキストを識別するアプリまで、ロービジョンに対する技術的解決策はいたるところにある。
しかし、Airaのように、これらの支援技術の多くは費用がかかり、個々の開発者や資金不足に悩まされているスタートアップのイノベーションに頼っている。

カナダ視覚障害者協議会の顧問を務めるAlbert Ruel氏は1月、CBCの『オン・ザ・コースト』に対し、支援技術の普及により、音声技術やスマートフォン、スマートグラスなどの機器に依存しない、「点字」など、比較的アクセスしやすいソリューションへの関心が低下していることを指摘している。

その一方で、アクセシビリティを高める立法的な努力は弱まっている。
Mohler氏が住んでいるオンタリオ州では、今年で14年になる『障害者のためのオンタリオ州アクセシビリティ法』(Accessibility for Ontarians with Disabilities Act) が、多くの公約を果たしていないことが、最近の調査で明らかになった。特に懸念しているのは、その著者である元Ont氏だ。
David Onley副知事は、多くの組織が、Webサイトの設計に関してアクセシビリティの標準を満たすことに苦労していると指摘している。

Fernandez氏は、米国でも同じことが言えると言う。米国ではアクセシビリティの問題が解消されないことでAIRAのようなサービスが必要とされているがそれは望ましい状態ではない。

「私はAiraを廃業させたくありません。でも、仕事や教育がもっとインクルーシブになり、その上でハイキングに行くようなより豊かな経験のためにAiraを使うことができれば素晴らしいとは思いませんか?」

・パワーの不均衡は存在しない

高額な料金と少々の不満はあるものの、Mohler氏とFernandez氏は、Airaが支援を求めたり受けたりすることに伴う社会的困難の一部を緩和するのに役立ち彼らの生活を改善してきたことに同意している。

「それは友人にお願いするのとは違い、パワーの不均衡がありません。」
Mohler氏は言う。
「サービスにお金を払うのです。私を助けるのが彼らの仕事です。もちろん彼らは自分の仕事を望んでいるし、うまくやりたいと思っています。なぜなら彼らはおそらく仕事を続けたいからです。」

Mohler氏によると、視覚障害者をナビゲートするということは、数多くの「仮定」に対処することだと言う。助けが必要かどうか? どのような助けが必要か? 自分で対処できるのはどのような時か? AIRAはそのような現状からいくつかの仮定を取り除いてくれる。


「私たちが権限を持った方法で支援を受けられる道を探求していきましょう。」

2019年6月12日水曜日

[粗訳] 未来のマウスはあなたの目玉。


※このエントリーは「The mouse of the future: your eyeballs」をざっくりと翻訳したものです。

近い将来、あなたの「眼」がマウスになる?

By KATHARINE SCHWAB

最近の研究によると、支援技術としてよく使われるアイトラッキング技術が、人々の生産性向上に役立つ可能性があるという。ほとんどの人は、タッチスクリーンであれマウスであれ、指や手を使ってテクノロジーを制御している。一方、何年もの間、運動能力に障害を持つ人々は目を使ってデジタルインターフェイスを制御してきた。「Tobii Dynavox EyeMobile+」のようなタブレットは、脳性麻痺やその他の病気の人に、インターネットを使ったり、コミュニケーションしたり、さらにはマウスの代わりに使用して目だけでゲームをしたりする能力を与えている。

現在、研究者たちはアイトラッキング技術を一般ユーザーに提供する方法を研究している。先週開催された年次ACM Computer-Human Interaction(CHI)のカンファレンスで、研究者たちは、これまでほとんど支援技術の領域にとどまっていたユーザーインターフェースを、健常者が活用するための、3種類の新しい方法を発表した。この実験では、目を使ってコンピューターを操作することで、障害者だけでなくすべての人の生産性を高める可能性について示されている。これは、障害者のために構築されたテクノロジーは、他のすべてのユーザーにもメリットがもたらされるという、インクルーシブ・デザインの威力を示す例だ。。

1.電子メールなど、テキストの一部分を目だけで修正する

タイプミスは避けられないものだが、カーソルを戻して修正するのは面倒だ。オークランド大学とバース大学の研究者たちが、CHIで発表した研究論文によると、アイトラッキングを使うことで、これらの厄介な小さな間違いを修正し、テキストの一部を操作することができるという。
まず、修正したいタイプミスを調べる(恐らくいつもあなたが行なっているように)。そして「ReType」と呼ばれるプログラムを用いてタイピングを開始すると、ユーザーの視線に基づいて変更しようとしている単語を識別し、入力した単語に置き換える。この状態でEnterキーを押すとカーソルが元の場所に戻り、テキストを挿入したり削除するなどの編集作業を続行できる。つまりあなたの眼をマウス代わりにしてミスの編集を続けながらキーボードを操作できる。
この研究にはさまざまなキーボードユーザーが参加しており、その中には以前にもアイトラッキング技術を使ったことがある人もいた。研究者らは、この方法の処理速度がマウスに匹敵、時には上回ることを示した。加えて被験者の評判も上々だ。ニュージーランドのオークランド大学でコンピューターサイエンスの講師を務めるGerald Weber氏は、Fast Companyに対しメールで、
「私たちは、多くのユーザーが繰り返しのタイピングによる疲労を予防するのに「ReType」が役立つと期待していることを聞いて、とても喜んでいます。」
と、クリック、タイピング、マウスの使用といった小さな繰り返しのタスクによって引き起こされる筋骨格系の損傷について言及している。
現在のところ、Retypeはプロトタイプにすぎないが、Weber氏と同僚のChristof Lutteroth氏の研究チームが特許を取得しており、製品化したいと考えている。

2.マウスを使用せずにコードをナビゲートする

調査によると、開発者はコードのナビゲートに作業時間の35%、デバッグ時には情報の検索に約50%を費やしているという。これは作業効率を大幅に低下させる要因となっている。この問題を解決するため、Weber氏とニュージーランドのMedia Design SchoolとUniversity of Bathの研究者は、すでに確立されているアイトラッキング技術を使って、視線をナビゲーションツールとして使うことで開発者の作業時間を節約できるかどうかを調査した。
CHIで発表された研究によると、アイトラッキングはキーボードを使う場合と同じ程度の速度だが、マウスを使う場合と比較して遅いことがわかった。しかし、ほとんどの開発者がナビゲーションの手段としてアイトラッキングを使用することを選択したことも明らかになった。28人の参加者のうち21人が、マウスより80%以上長時間、アイトラッキングを使用した。
この研究では、Weber氏がアクセシビリティー団体と協力して開発した「Actigaze」という技術(現在ベータ版が公開されている)が使用された。Activgazeシステムを使えば、障害のあるプログラマーの作業を支援したり、すべてのプログラマーにコードをナビゲートするための別の選択肢を提供できる。

3.アイトラッキングによる共同作業者とのコミュニケーション

多くの人がリモートで作業するようになると、遠隔地とのコラボレーションが困難になる。しかし、CHIで発表されたPomona Collegeの研究者らによる研究は、アイトラッキングが、どのようにコラボレーション・ツールとして機能するかを示している。研究者たちは「Google Docs」のようなさまざまな場所からひとつの文章に対して共同作業するというタスクに注目した。
研究者は20組の学者を対象に、各組のスクリーン下部にアイトラッキング装置を設置し、共同編集者にテキストエディタ内で現在見ている場所を示しながら作業する実験を行なった。
共同編集タスクを完了したのち、相手の視線位置にアクセスすることができた参加者は、相互理解が深まり、共同注意が高まり、コミュニケーションが増え、相手の作業内容についての認識が高まった。(なお視線追跡技術はテキストエディター内にしか表示されないため、共同作業者はそのコンテキスト外で互いの目の動きを監視することはできない。)

これら3つの研究はすべて、アイトラッキングを使って生産性を向上させる方法を提案している。テキストを単独で編集する場合でも、他の人と共同編集する場合でも、コードを書いている場合でも、視線はマウスを補完するものになる可能性があり、さらにはマウス操作全体を置き換える可能性もある。


2019年6月9日日曜日

UIのトレンド「ダークモード」の「効果」について考えてみる。


パソコンのOSがGUIを獲得して以来、ユーザーは常に「白くまぶしい背景」に「黒いテキスト」というカラースキームの元、作業してきた。これはスマートフォンが登場してからもほぼ変わらない(初期Androidなど例外はある)。だがここにきて、その「白い背景」という常識が「ダークモード」というデザイントレンドによって塗り替えられようとしている。ダークモードは、黒やダークグレーといった暗いバックグラウンドに、明るいテキストやGUIパーツを組み合わせたUIデザインである。

先日開催されたAppleのWWDC 2019で発表された「iOS 13」では、その新機能として「ダークモード」が発表され、大きな反響を呼んだ。同社はmacOS Mojaveですでにダークモードを採用しているし、GoogleもAndroidやChrome OS、Windowsにもダークモードがやってきている。アプリも同様に、GmailやTwitterを始め、メジャーどころが続々とダークモードに対応中。世はまさに「ダークモードブーム」まっさかりといった雰囲気だ。なんとなく、かつて流行した「スケルトン」な製品を思い浮かべてしまうのは筆者だけだろうか。そういえばスケルトンブームを牽引したのもAppleの「iMac」だったような。

しかしダークモードがスケルトンと異なるのは、「目に優しい」「文字が読みやすい」「集中力を高める」といった「効果」がアピールされている点だろう。実際、AppleはmacOS Mojaveの紹介ページで以下のように述べている。

(ここから引用)
ダークモードは、あなたが作業に集中できるようにサポートする、ドラマチックな新しい表示方法です。ツールバーとメニューが背景に溶け込み、あなたのコンテンツの繊細なカラーと細部がスクリーンの主役として映し出されます。あらゆる面で目に優しく、気を散らす要素のないこの美しい作業環境は、「システム環境設定」の「一般」パネルでダークモードをオンにするだけで用意できます。
)引用終わり)

確かに黒い背景に浮き上がるテキストやグラフィックは夜の街に映えるネオンサインのようにシャープでクールな印象があり、言われてみると見やすいような気がする。近年ではスマートフォンやパソコンの画面による視力低下などが問題視されており、もしかしたらダークモードがこれらの懸念を解消してくれるかもしれない。

しかしここにきて、本当にダークモードにこのような「効果」があるのか? エビデンスは?といった意見が浮上しているようだ。


ダークモードは本当に「作業効率を高める」のか?


海外ではすでにいくつかの記事でダークモードにまつわるさまざまな「効果」について疑問視する意見が見られる。

米WIREDの記事によると、Passau大学の研究者Susanne Mayr氏が、通常の白い背景のWeb画面と黒い背景のWeb画面で、どれだけテキストの間違いを見つけやすいか、およびテキストを読むスピードについて調査したという。その結果は、いずれの調査でも通常の白背景の方が黒い背景よりも成績が良かった。
同氏によるとこれは、瞳孔の開き方に関係しており、暗い画面で瞳孔が拡散すると網膜に当たる光がぼやける傾向にあるという。
この結果をみると、ダークモードが必ずしも読みやすく、作業効率をアップさせるというわけではなさそう。

またCNN businessの記事では、the Stanford Byers Eye InstituteのEuna Koo博士も同様に、ダークモードが目の健康に与える影響を否定している。むしろ影響が大きいのは画面を見ている時間や明るさの強さである、と同氏はコメントしている。
一方でバーミングハム、アラバマ大学の神経生物学教授であるPaul Gamlin氏は、夜間にダークモードを利用することで、明るい画面によって乱される体内リズムをキープする可能性に言及している。利用する時間帯によっては、睡眠などへの影響はあるのかもしれない。

研究者も述べているが、このような研究はまだ始まったばかりで、今後の実験の積み重ねや時間の経過、様々な条件下により、変化する可能性はある。あくまでも現時点では、ダークモードに言われているような効果があると言い切れる研究結果が得られていない、というお話。

一方で「スクリーンの見過ぎ」が眼精疲労など目のトラブルにつながるのはよく知られている。ダークモードだろうと通常の画面であろうと、画面の明るさを適度に保ち、長時間見続けることは避けなければならないのは言うまでもない。


アクセシビリティにとっては重要な機能


一方でダークモード、つまり黒い背景に明るい文字というUIは、一部の視覚障害者にとってはなくてはならない機能なのは間違いのない事実だ。

「ダークモード」という言葉が知られる以前から、macOSやiOS、Androidにはアクセシビリティ機能の一部として「カラー反転」が提供されていたし、Windowsでも「ハイコントラスト」テーマを洗濯することで黒背景のUIを実現していた。視覚障害者はこの機能と「ズーム」、症状によっては「カラー調整」を駆使することでこれらのデバイスを比較的簡単に利用することができた。ダークモードは、これらのアクセシビリティ機能の延長線上にある。アクセシビリティとしてのダークモードの効果は明確だろう。ロービジョン向けの福祉機器である拡大読書器にも同様の機能を持ったものもある。

筆者もこれまでさまざまな眼疾患を不本意ながらも体験してきたが、白内障で濁った視野や円錐角膜の歪んだ光、緑内障で弱まった視力や独特の白濁した視界では、白い背景がテキストを浸食してしまい非常に見え辛い。ダークモード、すなわちカラー反転を利用することで可読性は飛躍的に向上した記憶がある。何しろ今はほぼ全盲なものでね。

何れにせよ、これらは基本的なアクセシビリティ、つまり配色やコントラスト設計に配慮がされていなければ無意味であることは言うまでもない。例えば水色にオレンジの文字のような配色ではカラー反転させようがグレースケールにしようが視覚障害者は苦しむハメになる。Android 5.0のUIがそんな感じだったなあ。それで筆者はiPhoneに乗り換えたのだった。

ただ視覚障害のタイプによっては、必ずしもダークモードが効果的かと言われればそうではないようだ。例えば光過敏のような症状では、黒字の白い文字は眩し過ぎてきついと聞いたことがある。より広いユーザーのアクセシビリティを確保するためにも、例えばより見やすい書体の採用など、多角的なUIデザインのアプローチが必要となってくるだろう。


その他のダークモードのメリットは?


ダークモードの効果の一つとして「バッテリーの持ちの改善」がよく言われる。これは事実だが、その恩恵を受けるには、「ディスプレイが有機ELを用いている」ことと「ダークモードで使っているカダーが完全な黒(#000000)であること」が条件。
通常の液晶ディスプレイ(LCD)や、ダークモードのカラーがどんなに暗くても完全な黒でなければバッテリーの節約には結びつかないようだ。

くらい場所で周囲へ迷惑をかけない」というのも、ダークモードの利点の一つかもしれない。隣で家族が寝ていたり、照明が使えない場所でスクリーンを確認しなければならない時は、ダークモードが役に立つだろう。
視覚障害者的な使い方としては、音声ガイドアプリ「UDcast」を使うならダークモードが適しているはずだ。本当はロービジョンでもここだけはVoiceoverとスクリーンカーテンで使えた方が良いとは思うのだけど。


最終的には好みの問題?


こうしてみると、一般ユーザーにとってダークモードを選ぶか否かは結局のところ個々人の「好み」の話になってきそうだ。黒=クールと感じるユーザーもいるだろうし、かつてのCUIコンピューティングのノスタルジーを感じたいユーザーもいるだろう。そうなるとテキストはグリーンとかアンバーも選びたいよね。もしかしたら単純に「流行ってるから」とか「目新しいから」という理由でダークモードを選ぶユーザーもいるかもしれない。OSレベルでダークモードが標準搭載されるとなると、アプリケーションを開発する側も対応を余儀なくされるはずだ。AppleはWWDC2019で「SwiftUI」を発表し開発環境でダークモードをサポートするようだが、ダークモードに最適かされたUIメソッドが浸透するまでは、デザイナーにはある程度の負担が要求されるかもしれない。

ただ戦術のようにアクセシビリティとしてダークモードを利用するユーザーにとっては、ダークモードの普及は喜ばしいことだ。確かに以前からも白い背景を反転させることはできたが、写真やグラフィックスのカラーも反転してしまうなどの弊害も多かった。要するにアクセシビリティとしての旧世代ダークモードは「不恰好」なのだ。新しいダークモードは基本的なUIのカラーを反転させつつコンテンツは正常な見た目をキープするため、ロービジョンユーザーにとっては理想的なUIを実現する可能性が高い。

現時点でダークモードが「目に優しい」というエビデンスが存在しない以上、目の健康を保つには結局のところ「長時間画面を見ない」という基本的な対策しかなさそうだ。ちょっと心配なのは「ダークモード神話」を信じるあまり、この基本を蔑ろにし健康を害するユーザーが出ないとも限らないということだ。そんなバカなと言われそうだが、世の中油断してはならない。
いっそのことどうだろう、皆でスクリーンリーダーをマスターし必要なときだけ画面を見る生活をしてみては? 絶対目の健康には良いからさ。

関連リンク:


2019年6月6日木曜日

[メモ] WWDC 2019アクセシビリティ関連の情報クリッピング。(2019/6/19 Update)


毎年6月のお楽しみ、WWDCが今年も無事閉幕。
盛りだくさんだった内容の中から、アクセシビリティに関連するトピックスをクリッピングします。実際にこれらの新技術を体験できるのは秋になりますが、今回の発表を見る限り、ここ数年ポジティブな変化が見られなかったmacOSのVoiceoverにも大きな変更が加えられそうで楽しみです。日本語環境が置き去りにされないことを祈るばかりですが、どうなりますことやら。期待しすぎない、これがVoiceover使いのMacユーザーのスタンスです。
(2019/6/19 更新しました)

・全般

Apple公式サイトから。

WWDC 2019発表まとめ。

WWDC 2019アクセシビリティ関連まとめ。

Steven Aquino氏のWWDC 2019レポート。

by Steven Aquino。iOSの設定メニュー、HomePod、音声コントロール。

Appleによる開発者向けアクセシビリティガイド。


・iOS 13

アクセシビリティ設定が設定の最上位レベルに移動。設定項目も大幅に刷新。

新しい色覚サポートとモーション感度の設定。

新しいショートカットのトリガー。

NFCからショートカットを実行。

iOS 13ではFace IDに触覚フィードバックが加わる。




・ボイスコントロール



・macOS 10.15 Catalina



・ipadOSとiOS 13のマウスサポート


マウスのサポートはアクセシビリティの一環とApple。



・開発、セキュリティ

SwiftUIではアプリのアクセシビリティ向上が期待できる?
ダークモード、ダイナミックタイプなどアクセシビリティがデフォルトに?





・インタビュー

Steven Aquino氏によるSarah Herrlinger氏インタビュー。(トランスクリプト)

Applevisによるインタビュー。(音声)



2019年6月5日水曜日

[粗訳] UNYQとIKEAがゲーマー向けカスタムアクセサリを発売。


※このエントリーは2019/6/5に配信されたニュース「UNYQ and IKEA develop personal 3D printed accessories for gamers」をざっくり翻訳した者です。翻訳してみたらあんまり支援技術に関係なかったですね。びっくり。

UNYQ とIKEA、3Dプリント技術を用いたゲーマー向けパーソナル・アクセサリを開発。

By Jack Colyer

サンフランシスコに拠点を置く支援機器開発会社「UNYQ」は、ゲームコミュニティ向けの3Dプリント製品を製造するためにIKEAと提携した。

「ゲーム・コミュニティーでは、機能的でカスタマイズされた家具やアクセサリー、そして個人の好みに合ったデザイン性に関しては、長い間見過ごされてきました。」
とUNYQの共同設立者でCEOのEythor Bender氏は語る。
「私たちは、こうしたカスタマーの固有のニーズに応え、ゲーム環境の保護と改善をパーソナライズできます。」

(写真)3Dプリントで製作された手首サポーターのプロトタイプ。

2014年に設立されたUNYQは、上肢切断者および下肢切断者のための、さまざまな個人用義肢カバーを製造している。同社は近年、既存の製品を補完するプリントされたソケットと義足を備えた「トータルレッグソリューション」の開発に着手している。同社はこれらのノウハウを、スペシャルなゲーム製品の開発への取り組みに応用した。

ゲーマーは多くの時間を座ったままで過ごし、反復的な動作を繰り返すため、手首や脊椎に大きな負担がかかることがある。したがって、スタイルに合わせた特注の製品は、ケガの可能性を減らし、快適な環境を提供する。
ゲームコミュニティに向けた最善のプロダクトデザインを目指すため、同社はストックホルムに拠点を置く教育eスポーツ会社「Area Academy」の協力を得た。
Area Academy社のノウハウとCarbon社の3Dプリンティング技術を組み合わせて、UNYQとIKEAは、ゲーマー向けの3種類の3Dプリンティングアクセサリ「UPPKOPPLA」のプロトタイプを開発した。これはスウェーデン語で「オンライン」を意味する。

この中にはプレイヤーの手首からキーボードまでの正しい高さを維持し、腱への負担を軽減するバイオメトリクス手首サポーターが含まれる。ソフトでしなやかな通気性のキーキャップにより、キーボードがゲーマーの指の延長のように感じられる。そして携帯用マウス「bungee」は、マウスケーブルを固定し、もつれを防ぎ、自由な操作を可能にする。

デバイスを製造するため、UNYQはジェネレーティブデザインを採用した。Bender氏によると、このモデリング手法は
「追加的な製造プロセスによってバリューチェーンとサプライチェーンの工程が簡素化、短縮されます。異なる製品間で容易に複製できるようになるため、より手頃な価格になり、個人が設計プロセスに参加できるようになります。」と語る。

(写真)プリントされたキーキャップ。

両社がゲーム市場向けの製品を共同開発するのは今回が初めてではない。
IKEAとUNYQは2018年6月、プロゲーマー向けに、人間工学に基づき長時間快適な座り心地を実現したチェアを開発している。「UBIK」」と名付けられたこのチェアは、3Dプリントとボディスキャナーを利用することで格子状のインサートをカスタマイズし、理想的な姿勢を実現している。

今回のコラボレーションについて、スウェーデンのIKEAのクリエイティブリーダーであるMichael Nikolic氏は、 
「これはIKEAにとってエキサイティングなパートナーシップです。UNYQは、すべてのユーザーが持つ個別のニーズと好みに合ったソリューションを作り出しました。カスタマーは自分の手でデザインを扱うことができます。
これはカスタマーが望むものを正確に提供するための優れた方法ですし、また生産と需要を直接マッチングすることで、在庫を減らし廃棄物を最小化します。
私たちは、この新しい仕事が私たちをどこへ連れて行くのか、UNYQとの協力を続けることを本当に楽しみにしています。」

現在、この提携はゲーム市場に焦点を当てているが、両社は様々な興味や独自の好み、特定のニーズを持つものの十分なサポートが得られていないコミュニティを通じて、彼らの活動をカバーするために提携を拡大する計画だ。


UPPKOPPLAコレクションは、2020年にスマートフォンアプリを通じて世界中から注文可能になる予定。ローンチ後は、UNYQが提供するアプリの写真測定機能を使って、カスタマイズされたゲームアクセサリーを作ることができる。

2019年6月4日火曜日

[粗訳] 障害者支援技術における「カーブカット効果」とは?


※このエントリーは「The Curb Cut Effect: How Making Public Spaces Accessible to People With Disabilities Helps Everyone」を、ざっくり翻訳した者です。

カーブカット効果:公共の空間を障害者にとってアクセシブルにすることは、すべての人々に恩恵をもたらす。

「カーブカット」とは、歩道と車道の間を滑らかに通過できるように、高い縁石をくさび状に切断した設備である。
もともとは、公共の道路を車椅子ユーザーが利用できるようにするために考案された。米国最初のカーブカットは、1945年、第二次世界大戦で障害を持った退役軍人のため、ミシガン州に設置された。
現在では、身体障害の有無にかかわらず、誰もが恩恵を受けている。ベビーカーを押したり、重い荷物を運んだり、関節に痛みを感じたり、松葉杖や杖をついて歩いたり、酔っぱらってふらついたりしたことがあるなら、カーブカットが役に立つ。膝の腱炎に悩まされていたとき、階段のようにでこぼこした地面を歩くのが苦痛だったが、カーブカットにより歩きやすくなった。
カーブカットの歴史は、2つの重要な原則を教えてくれる。

1.障害者のために設計された技術は、すべての人を助けることができる。

これは「カーブカット効果」と呼ばれ、障害者を支援する人々によってしばしば語られる。障害を持つ人々を助けるものは誰にでも役立つという考えは、建物や製品が、年齢や能力に関係なく、誰にとっても可能な限り使いやすいように設計されている「ユニバーサルデザイン」の分野に影響を与えた。

2.支援技術が十分に普遍的で広く使われるようになると,もはや支援技術とは考えられなくなり「標準」となる。

カーブカットはどこにでもあるので、もはや「支援技術」というレッテルを貼られることはなくなる。私たちはその起源を障害者のための設備であったことを忘れてしまう。

カーブカットはこれらの原則の最も分かりやすい例だが、適用されるジャンルは多岐に渡っている。、障害者のために設計された製品は障害のある人にとって作業を容易にする可能性があるだけでなく、省力化された製品は一般の人々のタスクを簡単にする。さらに,これらの原理は,身体運動を助ける支援技術だけでなく,感覚処理と認知を助ける支援技術にも当てはまる。

例えば、クローズドキャプションやトランスクリプトは、聴覚障害者がセリフや効果音が聞こえなくても映画を理解できるようにするための技術だ。これらは聴覚に障害のある人だけでなく、おしゃべりしながらテレビを見るのが好きな人や騒がしいバーで人の声を聞く時に役立つことは、簡単に想像できる。しかし、こうした課題を抱えていない人の中には、クローズドキャプションを煩わしく感じオフにする人もいる。
結局のところ、彼らは見逃している。

いかに人々が声高な反キャプションであるかを考えると、障害のない大学生は、クローズドキャプションやトランスクリプトが学習に役立つかどうかにかかわらず、それらを「嫌っている」と予想される。しかし全国的な大規模な調査によると、実際にはほとんどすべての学生が、自分の学習にキャプションが役に立つと考えていることがわかった。

オレゴン州立大学と3Play Mediaは、全米の公立大学と私立大学15校の2,124人の学生を対象に調査を実施した(詳細な調査結果は元記事のリンクを参照)。これらには学部生と大学院生の両方が含まれ、ほとんどが公立の4年制学校に通っていた。

ほとんどの学生(98.6%)が、キャプションは役に立ったと述べている。

ほぼ4分の3の生徒(71%)が、対面式やオンラインの教室でキャプションを使用していると報告し、85%がビデオのトランスクリプトを使用したと述べた。

興味深いことに、キャプションを使う最も一般的な理由は、音声やビデオの質の悪さ(22%)、インストラクターのアクセントの問題(8%)、便利さ(5%)、障害者対応(6%)ではなく、「学習補助」(76%)だった。
具体的には、キャプションによって理解力が向上した(51.9%)、キャプションによって正確性が向上した(33.4%)、エンゲージメントが促進された(20.2%)、授業内容の保持力が向上した(15%)と回答している。

キャプションを使うことを選択した理由は、集中力を高めるため(66.6%)、情報の保持力を高めるため(63%)、難しい語彙を使うため(27%)、)聴覚障害のため(18.8%と回答しており、障害を理由とした利用は少数派だった。
障害の有無にかかわらず,学生は集中力,記憶力,および難しい語彙の理解力を向上させるためにキャプションを使用した。障害の理由より教育的理由の方がはるかに多かった。
驚くことではないが、ESL(第二言語としての英語)を学習する学生の66%がキャプションを「非常に」「極めて」参考にしている。

学生たちはキャプションとは異なる理由でトランスクリプトを使用したが、それでも障害支援よりも教育に役立てている。ほぼ半数(46.3%)が、情報を見つけるため、または情報を保持するため(46.3%)、学習ガイド(47.3%)、3分の1以上が集中力を維持するため、ほぼ5人に1人が難しい語彙を扱うために、これらを使用した。学生は聴覚障害のためにトランスクリプトを使用する傾向がはるかに低かった(12.3%)。

学習ツールとして支援技術を使用したこれらの学生のほとんどは,障害を持っていなかった。これらの学生のうち、障害者サービスの事務所に登録したのはわずか13%であり、学術支援施設を必要としたのは12%未満だった。学生のうち、聴覚(19%)視覚(37%)に問題を報告したが、それでも調査対象の少数派だった。

これらの結果にもかかわらず、学生は必ずしもこれらの支援技術への頻繁で簡単なアクセスを持っていなかった。4分の1以上の参加者がクローズドキャプションが利用可能かどうか、ほぼ20%がビデオトランスクリプトが利用可能かどうかわからなかった。ビデオにキャプションがあるかどうかを見分ける方法がわからない学生も15%いた。連邦政府からの資金援助を受けている大学では、使用されているすべてのビデオをアクセシブルにすることが法的に義務付けられているため、これらの調査結果は課題を示している。

この研究は、ビデオのクローズドキャプションやトランスクリプトが、障害を持つ人も持たない人も支援するという点で「カーブカット」のようであるという小さな証拠を提供している。
(より説得力のある証拠もある。クローズドキャプションやトランスクリプトを使用した学生と使用しなかった学生の成績を検証した。テストの成績が一番簡単だが、たとえば、問題を使って読解力をテストしたり、トピックの短い説明文を採点したところ、これらのテクノロジーを使用した学生の方が成績が良かった。

しかし、この研究はこれらの支援技術とカーブカットの間の重要な違いも示している
それらは支援技術として見なされ、広く利用可能にされるよりむしろ障害を持つ学生にだけ提供される。テクノロジーが「障害を持つ人々のためのもの」と見なされると、ほとんどの者が障害に関わりたくない、またはテクノロジーを使用することで障害者のように見られたくない、というスティグマを生み出す。(視覚障害を持つ作家であるWill Butlerは、支援技術のように見えたことがGoogleグラスの消滅に貢献しているかもしれないと説得力を持って主張している)。

研究者たちは、キャプションとカーブカットの違いを認識しており、それを変えたいと考えている。
「多くの人がクローズドキャプションやトランスクリプトを障害者が使うものとしか考えておらず、それが広く利用されていないことを意味しています」と、本研究の著者でオレゴン州立大学Ecampus Research UnitのディレクターであるKatie Linder氏は述べた。「この研究での1つの望みは、さまざまな学生がこれらのツールをどのように使用しているかを大学管理者に示し、ツールを日常的に使用することで、より多くの学生を支援することでした。」

では、カーブカットのようなクローズドキャプションやトランスクリプトを作るにはどうすればよいのだろうか。

私たちはこれらの技術のハードルを下げ、それらが「障害者のためだけに」ではなく、すべての人のためのものであることを伝え、それらをどこでも簡単に利用できるようにする必要がある。街中にある「カーブカット」がそうであるように。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...