2020年5月30日土曜日

空中にかざした手のひらに点字の触覚を再現する「Hapti-Read」。


ドイツ・バイロイト大学のViktorija Paneva氏らの研究チームは、超音波を応用した非接触型の触覚ディスプレイを開発した。
これは空中にかざした手のひらに任意のドットによる形状を触覚として感じ取れる技術だ。この装置を用いれば視覚障害者に対し、点字を用いて安全かつ衛生的に情報を伝達することができるようになる。

「Hapti-Read」と名づけられたこのデバイスは超音波を発信する特殊なスピーカーで構成される。デバイスは人の手を自動的に追尾するディープモーションセンサーを備えており、超音波をスピーカーから集中的に照射することで手のひらに触覚を再現する。その感覚は「軽い風が当たっている」感じという。

超音波スピーカーは16×16のグリッドで配置され、それぞれのスピーカーからの周波数を100から200ヘルツの間で調節し音圧の違いによりドットを触覚として表現する。点字に限らず、数字や図形、アイコンなどの触覚も表現可能。また最大で70センチの距離まで触覚を伝達することができるという。、
研究者は11人の視覚障害者を対象に、再現された数字の触覚を読み取る実験を行った。その結果、88%で性格に数字を読み取ることができたという。

公共スペースに設置されている電子端末、例えば券売機や自動販売機、病院の受付きなどのインターフェイスは物理ボタンが廃止されタッチパネルによる操作が中心となっている。そのため視覚に障害を持っていると操作することが極めて難しい。音声による操作に対応した端末もあるが、プライバシー漏洩や聞き取りにくさなどの課題も多い。
またこのような端末に点字ディスプレイを設置するアイデアも考えられているが、導入コストやメンテナンスの問題、さらに近年では衛生面のリスクもあり進んでいない。
Hapti-Readのような非接触技術は、このような問題を解決する一つのヒントになり得るかもしれない。

またHapti-Readは純粋に触覚を伝達する技術だが、他のセンサーやデバイスと組み合わせることでエレベーターのボタンを触れずに操作したり、VRやARゲームに仮想触覚フィードバックを追加するなど、視覚障害者への情報伝達に限らない、様々なシーンへの応用が考えられるだろう。

Covid-19の感染拡大により公共スペースの衛星面の懸念が高まる中、さまざまな非接触技術に注目が集まっている。近い未来、このような「バーチャル触覚」が、私たちの「濃厚接触」に取って代わるようになるのかもしれない。


2020年5月28日木曜日

[速報] Twitter、画像の説明文(代替テキスト)機能をデフォルトで有効に。


2020年5月28日、Twitterはツイートに添付するイメージやGIFに画像説明文( 代替テキスト)を追加する機能をデフォルトで有効にすることを発表した


すでに一部のユーザーではこの変更が適用されており、順次全てのユーザーに拡大されていくと思われる。

この機能自体は2016年から存在していた物だが、有効にするためには設定を変更する必要があるため認知度は低く、残念ながらあまり利用されることがなかった。前回のエントリーでは画像説明文の文字量制限の拡張とGIF画像の代替テキスト追加について書いたが、それに引き続きアクセシビリティ絡みで大きな変更が加えられたことになる。

この変更が適用されたユーザーがツイートにイメージやGIF画像を添付すると、「この画像に説明を追加」ボタンが現れ、これを押すことで画像説明文(代替テキスト)を1,000文字まで入力することができる。(※見えているユーザーの証言によると画像の上に「ALT」アイコンが表示され、そこから説明文を登録できるらしい。未確認。)

iOS版公式アプリで確認したところ「設定とプライバシー」>「アクセシビリティ」にあった画像説明文に関する設定項目が消滅していた。Web版ではまだこの設定項目が残っていたが、設定内容にかかわらず説明を追加するボタンは表示されるようだ。将来的にはこの設定項目は無くなると考えられる。つまりこの機能は高級的に有効になり無効にはできなくなる。

画像説明文が追加されたツイートは、見た目には変化がない。
スクリーンリーダーの読み上げカーソルをその画像に合わせると、その説明文が音声で読み上げられる。画像を目で見ることができないユーザーは、その説明文を聞くことでその内容をイメージできるというわけだ。
長文のテキストを画像化しているツイートもよく見かけるが、その場合も画像に含まれるテキストを説明文に登録することで、見えないユーザーにも情報を伝えることができる。

なおiPhone、iPad、MacならVoiceover、AndroidならTalkback、Windows 10ならナレーターと呼ばれるスクリーンリーダーが組み込まれており、これらを用いれば音声で説明文を確認できる。スピーチ機能でも読み上げられるかも。試してない。

Twitterの画像説明文機能がデフォルトで利用できるようになったことで、画像に加える代替テキストについて関心が高まることが期待できる。これまで代替テキストといえば当事者を除くとWebアクセシビリティへの意識が高いエンジニアやブロガーくらいにしか認知されていない印象だったが、これをきっかけに視覚障害者に対する情報伝達についての意識が一般にも広まることを望みたい。
同時に当事者やWebアクセシビリティ界隈からも代替テキストの意味やアクセシビリティの重要性についてアピールを強めていく必要があるだろう。
今回の変更に気がついたユーザーの反応を見てみても、そのようなプッシュがなければスルーされてしまう危惧を感じる。せっかく画像説明文を登録しても、見た目には何も変わりがないのだから。
視覚障害者がどのようにこの説明文を読むのか? どんな説明文を書けば良いのか? 情報をアクセシブルにすることの意味とは? これらが理解されなければ、この機能が継続的に、かつ正しく使われることは難しいだろう。

それでも、これまで隠されていた物が公開された意味は大きい。すぐにアクセシビリティについて興味を持たれることはないかもしれないが、このボタンが見える場所に出現したことで、小さな足がかりが築かれたような気がしなくもない。
まずは気が付いてもらう。これが大事なのである。

P.S.
この機能を発見したTwitterユーザーの反応が結構興味深い。視覚障害者がTwitterを使っていること自体想像できないという声もあった。しばらくウォッチしつつ、この件についてはまた改めて考えてみたい。

2020年5月27日水曜日

Twitter、画像説明文の上限を1,000文字に拡張。GIF画像の代替テキストも追加。※5/28更新


Twitterは2020年5月22日、ツイートするイメージとGIFに追加する画像説明文(代替テキスト)の文字量の上限を、これまでの420文字から1,000文字に拡張したことを発表した
画像説明文とは、視覚に障害があるなどイメージを目で確認することができないユーザーに対し、説明テキストを加えることで情報を伝えることができるアクセシビリティ機能。この説明文は画面上に表示はされないが、スクリーンリーダーを用いれば音声でその内容を確認することができる。使い方の説明はこちら

(以下、発表ツイートより引用)。
We’re #GAAD to announce that we’re updating the alt-text limit from 420 to 1000 characters and now there’s short auto alt-text for most GIFs.
(引用終わり)

人物や食べ物などのスナップ写真の説明ならさほど長い説明文にはならないが、長文をイメージ化した画像やグラフなどに説明を加える場合、420文字では足りなくなることも十分考えられる。一挙に倍以上の代替テキストが入力できるようになったことは素直に喜ばしい改善だろう。
iOS版公式アプリとWeb版で試して見たところ、説明文に表示されている残り文字量に「1000」と表示されていることを確認した。Web版で実際にテキストを入力してみたが、990文字を超えたあたりで文字が消えるなど妙な挙動を示すことがあり、ギリギリまで入力するのは避けた方が良さそうだ。

あとこれは前から存在していたのかもしれないのだが、以下のような画像説明文についての簡単な解説がポップアップすることに気がついた。これは「はい」をクリックすると以降表示されなくなる。

(以下、引用)
説明を追加
目が不自由な利用者も含め、多くの利用者が画像を理解できるように説明(代替テキストとも呼ばれます)を作成できます。簡潔にすることをおすすめしますが、画像の前後関係をよく理解できるように画像の内容を的確かつ正確に説明してください。
(引用終わり)

画像説明文を加えるには設定からこの機能を有効にする必要があるため、多くのユーザーは存在にすら気がついていないという現実がある。
このような解説を用意しているのであれば、もうデフォルトにしても良いのではと思ってしまう。普段アクセシビリティを意識していないユーザーでも、説明文を追加するボタンを見つければ「これはなんだろう?」となるはずだ。
まあいろいろな事象を考慮した結果このような仕様になっているのかもしれないが、議論の余地はあるのではないだろうか。説明文の入力を必須化すべきとは決して思わないのだが、この機能が知られることで1ツイートでも画像説明文が増えて欲しいものだ。

※2020/5/28追記。
Twitterが画像の説明文機能をデフォルトに仕様変更すると発表した
筆者はまだ確認できていないが、すでにユーザーによっては使えるようになっているようだ。

(以下、発表ツイートより引用)。
Adding descriptions to images is a great way to include everyone in your conversation. These descriptions, aka alt-text, enable folks who use screen readers to interpret images in Tweets. Starting today, you no longer need a setting to add alt text and it's available on.
(引用終わり)

あと細かいけどWeb版で説明文を追加するボタンのラベルが「説明件を追加」になっている。これは表示上では間違ってないのかな?

さて、今回のアップデートでは画像説明文の拡張に加え、GIF画像ライブラリに収録されているほとんどのイメージに自動代替テキストが付けられた。スクリーンリーダーを使ってツイートにGIF画像を添付する場合、これまではGIFを選ぼうとしても「画像」としか読み上げられず使い物にならなかったが、これである程度判別できるようになった。
選択したGIF画像をそのままツイートすれば、この代替テキストが付加される。もちろん手動で説明文を加えることも可能だ。

ただこの代替テキスト、英語なのに加えて必ずしもGIFのイメージを的確に説明しているわけではなさそうだ。
「Funny Dance GIF」とか「Teddy Bear Dancing GIF」あたりはまあ想像できるのだが、「Taylor Swift Reaction GIF」とか「Will Ferrell Im Kind Of A Big Deal GIF]あたりになると、かなり何回である。いったいどんなGIFなんだろう。

もう少しわかりやすい代替テキストにして欲しいところだが、それでもスクリーンリーダーユーザーには無縁だったGIF画像が実用的になったという意味では大きな改善だろう。

2020年5月25日月曜日

SAMSUNG、Bixby Visionに視覚障害者向けの3つの機能を追加。

Bixby Vision(画像引用元

SAMSUNGは2020年5月21日、Global Accessibility Awareness Dayに合わせ、同社がスマートフォンGalaxyシリーズに提供しているAIアシスタント「Bixby Vision」に、視覚障害者向けの新しいアクセシビリティ機能を追加したと発表した。

SAMSUNGは2016年より、障害のあるユーザーと協力しアクセシビリティ機能を改善するプログラム「Samsung Supporters」を実施しており、今回の発表はその成果の一つといえる。
プレスリリースによると、今回Bixby Visionに追加されたのは「Quick Reader」、「Scene Describer」、そして「Color Detector」の3機能。いずれも画像認識AIを用いカメラからの画像を音声に変換することで視覚障害者を支援する。

「Quick Reader」はテキストが書かれた書類やラベルにスマートフォンをかざせば、書かれた文字をリアルタイムに識別し読み上げてくれるOCR(光学式文字認識)機能。現在57の言語に対応している。
またこの機能を使えば1,000以上の一般的なオブジェクトを識別し、目の前に何があるのかを音声で知ることもできる。リリースによれば、キッチン用品や野菜など日常生活におけるルーティーンで物を選ぶ時に役立つという。
この機能を使うにはBixbyボタンをホールドし「Bixby Vision Quick Reader」と話しかけ、識別したいテキストやオブジェクトにカメラを向ける。

「Scene Describer」は撮影した風景やダウンロードした画像など、あらゆるイメージの説明を提供する。これはユーザーが周囲をナビゲートする際に、潜在的な障害物を特定するために役立つ。
この機能は同様にBixbyボタンをホールドし「Bixby Vision Scene Describer」と話しかけ、カメラを解析したい風景に向けて画面をダブルタップすることで利用できる。なおこの機能は利用する地域により制限がある。

「Color Detector」はカメラでキャプチャした物体の色を判別する機能で、現在33種類の色を識別できる。Bixbyボタンをタップし「Color Detector」機能を選んでカメラを物体に向けるとその色を読み上げる。

これらの新しいアクセシビリティ機能は、Bixby Vision 3.5以上を搭載したGalaxyデバイスで利用可能とのことだ。



2020年5月24日日曜日

GAAD 2020関連記事クリッピング。


2020年5月21日(木)のグローバルアクセシビリティ啓発デー(Global Accessibility Awareness Day)に関連した記事クリッピングです。リンク切れなどはご容赦ください。

今年もアクセシビリティにまつわる様々なイベントや発表が世界中で行われました。例年とは異なりCovid-19の感染拡大に伴って、多くのイベントが規模を縮小しオンラインで開催されています。
世界中の多くの人々がStay@Homeを余儀なくされている中、テレワークやリモートスクール、ソーシャルディスタンシング、コンタクトトラッキングなど、新しいライフスタイルに適応するためのテクノロジーとの関わりが生まれています。
それに伴い、デジタル・アクセシビリティの重要性はより高くなってきているといえるでしょう。世界が全く新しい領域へシフトしていく中、障害者や高齢者が取り残されてしまう懸念があります。今年はそのような論調が特に海外では目立っていたようにも感じられました。
Covid-19を経験した世界がどのようにアクセシビリティやインクルージョンを推し進めるのか、それともよりバリアや格差が世界を覆い尽くすのか。今年は感染流行の真っ只中ということでその辺りは見えてきませんでしたが、来年のGAADでは大きなテーマとなるかもしれませんね。
また一年間、頑張ってサバイバルしていこうと思う次第です。


・国内



・Apple


(Applevisより)


・Microsoft




・Google



・IBM


・Be My Eyes


・その他



・オピニオン


2020年5月22日金曜日

[iPhoneゲーム] Voiceover対応ビデオポーカー「Pirate Poker」。


Pirate Poker」は、Voiceoverに完全対応したiPhone向けポーカーゲームです。
簡単にいえば昔(今もある?)ゲーセンにあった一人用のビデオポーカーゲームみたいな感じ。仮想コインを賭け、配られた5枚のトランプカードで役を作り、それに応じた賞金をゲットして増やしていくというカードゲームです。基本無料で遊べますよ。
開発は昨年ApplevisでGame Awardを受賞した「友達とサイコロ」などのアクセシブルなゲームをリリースしているAppA11y, Inc.
Stay@Homeの暇つぶしにピッタリのこのゲーム、遊び方を簡単にご紹介しましょう。

まずは「「Balance」の項目をチェックして現在の仮想コイン残高を確認しておきます。足りなくなったら「Store」ボタンから購入したり、GAME Worldなどで増やしたりできるみたいです.ただどのくらいの頻度なのかはわからないのですが、一定時間ごとに残高が増えている感じです。気のせいだったらごめんなさい。

Pirate Pokerはポーカーゲームなので、BET数(掛け金)を決めます。デフォルトでは「1」に設定されてますが、コツが掴めてきたらBET数を増やして一獲千金(バーチャルだけど)を目指すのもアリでしょう。

BET数は「BET Level」と「Coins per BET」の2つの要素で決まります。
まず「BET Level」をタップしてBET Levelを決めます。レベルは1から5まであり、タップするごとに切り替わります。BET Levelが高ければ強いハンド(役)で上がった時に獲得できるコイン数が多くなります。ペイアウト(払い出し)枚数は画面の上の方に表示されているのでチェックしておきましょう。
さらにレベル5に設定すると特別ボーナス(progressive)を獲得できたりするらしいです。
続いて「Coins per BET」を決めます。
要するに倍率ですね。例えばBET Levelが2の時にCoins per BETが5の時はベットするコインは10枚となります。もちろんBET数が多いほどペイアウトの枚数も跳ね上がります。
「increase coin amount」と「Decrease coin amount」をタップしてBET Levelごとにベットするコイン数を5枚単位で設定します。

では早速プレイしてみましょう。ざっくりいえばランダムに配られた5枚のカードから1回だけ不要なカードをチェンジし、最終的に役ができれば勝利です。

  1. 「deal Cards」をタップすると、5枚のカードがランダムに配られ、Voiceoverがカードの内容を読み上げます。「Auto Hold」がオンになっていれば、カードが配られた後に何枚のカードがホールドされたかを読み上げます。
  2. 配られたカードにフォーカスすると、カードの内容を読み上げ、ホールドされていれば「Held」と読み上げます。各カードをタップして「ホールド」するか「捨てる(ホールドしない)」かを決めます。
  3. ホールドするカードが決まったら「deal Cards」をタップします。ホールドしなかったカードが捨てられ、新しいカードがランダムに配れれます。
  4. ハンド(役)が完成していれば役名とBET数に応じたペイアウト枚数(BET Levelの払い出し枚数×Coins per BET)が読み上げられますが、役が完成しなければ「No WIN」と読み上げます。しょんぼり。

これでゲームのワンセット終了です。
引き続きBET数を決めて次のゲームにチャレンジできます。
Voiceover対応とはいえいちいちホールドを指定するのは面倒なので「Auto Hold」機能は重宝しますね。あえてホールドされたペアを捨ててフラッシュやストレートなどの高いハンドを目指すのも戦略の一つです。
ちなみにPirate Pokerで採用されているハンドは以下の通り(弱い順です)。

  • Pair: Pair Jacks or better:Jack以上のワンペア。
  • Two Pair:2組のペア。
  • Three of a Kind:同じ番号のカードが3枚。
  • Straight:連続した番号の5枚のカード。
  • Flush:同じマークの5枚のカード。
  • Full House:ワンペアとスリーカードが同居。
  • Four of a Kind:4枚の同じ番号のカード。
  • Straight Flush:同じマークの連続した5枚のカード。
  • Royal Flush:同じマークの10、Jack、Queen、King、Ace。

「Statistics and Profile」ではこれまでの自分の実績を、「Leaders」ではランキング、「Activity Feed」で最近の他のプレイヤーが上がった強ハンドの履歴が見られます。
Pirate Pokerは他プレイヤーとの駆け引きもないシンプルなビデオポーカーゲームです。(ランキングはあるけど)基本的に「確率」と「運」の要素が強いゲームなのだけど、なんとなくポチポチ遊んでしまう。低BETで運試ししつつ暇つぶしするには良いかもと思いました。あ、サウンドは凝ってます。サイレントスイッチはオフにして楽しみましょう。

もっと本格的で対戦できるポーカーゲームならAppleがリリースしている「Texas Hold’em」もあります。もちろんVoiceover対応で無料ですよ。Pirate Pokerでポーカーに興味を持ったら挑戦するのも良いかもしれません。


2020年5月19日火曜日

Apple関連ニュース3本。GAAD 2020に向けたAppleの新たな取り組みなど。


GAAD 2020に向け、様々なサービスやコンテンツを提供


米Appleは現地時間2020年5月7日、同月21日のグローバルアクセシビリティ啓発デー(Global Accessibility Awareness Day)に合わせ、アクセシビリティに関するいくつかの新しい取り組みを発表した。

まずこれは毎年恒例。新たにキュレーションされたアクセシビリティに関するアプリのコレクションがWeb上のストーリーおよび各OSのApp Storeの「Today」タブで公開されている。Voiceoverで人気のアプリ特集も興味深い。

またApple TV+では障害を持つ俳優をフィーチャーし、障害をテーマにした映画やテレビ番組にスポットを当てた特集ページを公開。さらに公式YouTubeチャンネルでは製品のアクセシビリティに関する新しいガイドやヒントを扱った動画の追加も予定されている。

またApple Careを通じたアクセシビリティ専門のカスタマーサポートの提供も発表された。Apple製品のアクセシビリティ機能を利用しているカスタマーは、電話やオンラインチャットを通じ支援技術に関する専門の技術サポートを英吾と北京語で利用できるようになる。従来のサービスでもアクセシビリティに関するサポートは受けられたが、より専門性の高い支援を受けられるということだろう。

そして今回の発表でもっともタイムリーといえるのが教育支援。米国ではCovid-19の流行によりリモート教育が急速に進められているが、特に特別支援教育を受けている学生のためのリソースが圧倒的に不足している。
Appleは障害を持つ学生向けの製品割引販売プログラムに加え、リモート学習に関する情報サイトをアップデートし、さらに遠隔学習に取り組む学生と教師に対し、マンツーマンのバーチャルコーチングセッションを提供する。

これらのサービスはいずれも米国で提供されるものだが、いくつかの情報は読むだけでも参考になるだろう。でも日本向けサービスも欲しいな。特にカスタマーサポート。



「Apple NEws+」で音声コンテンツの提供を計画中?


2019年に北米地域でサービスインしたAppleのニュース読み放題サービス「Apple News+」。
サービス開始直後は多くの購読者を獲得したものの、月額9.99ドルという料金に加え類似サービスとの競争も激化し、苦戦を強いられているようだ。クックCEOは順調な会員数の伸びを強調しているようだが、その多くが無料会員が占めているという話もある。

そこでAppleはサービスの差別化を図るべく、新しい戦略を模索している。それがオーディオによるニュースの提供だ。
すでにAppleは同サービスに参加している主要なパブリッシャーに対し、配信しているニュース記事のオーディオバージョンのプランについてコンタクトを取っているという。
報道によるとコンテンツの音声化に伴うコストはApple側が負担すると伝えられているが、それにも関わらずパブリッシャー側はこの計画が収益増につながるのか懐疑的のようだ。

確かに米国ではPodcastやオーディオブックの人気は非常に高い。音声によるニュースはスマートスピーカーを利用しているユーザーに恩恵を与えるかもしれない。Apple Newss+に音声をもたらすアイデアはそれなりの説得力を持つ、のかな。
ただテキストと同じ内容ならVoiceover読み上げでも良いきもするし、むしろVoiceover改善してくれよと思わなくもな買ったりする。
果たしてこの計画は実現するのだろうか。そしてApple News+はどうなってしまうのか。日本でサービスインするひは来るのか。生暖かく注目していきたい。個人的には日本でも有料記事が増えてきたので、このようなサービスがあると助かるのだけどな。



Apple Watchの「車椅子モード」に関する特許が公開される


米国特許商は5月12日、Appleに付与されたいくつかの新しい特許を公開した。その中には、Apple Watchを装着した車椅子ユーザーのための活動量計測技術が含まれている。

Apple Watchにはさまざまな障害を持つユーザーを支援するアクセシビリティ機能が標準で用意されているが、その中でも特徴的とも言えるのが、車椅子ユーザーのためのアクティビティモニタとワークアウト機能だ。これは2016年のWWDCで初めて公開されwatchOS 3で実装されている。この特許は2017年に出願され、この日に公開された。

この特許の詳細には車椅子を用いる際の運動メカニズムに対してApple Watchのセンサーがどのように運動を検出し消費エネルギーを計算するのか、その原理が概説されている。


2020年5月15日金曜日

iOS版radiko。Voiceover使用時にホーム画面で放送局名を無理やり読み上げさせてみる。

※2022年4月にリリースされたバージョン7.4.12で、放送局名をVoiceoverで読み上げるようになりました。基本的な操作方法に大きな変化はありませんが、一部を除きボタンに適切なラベルが付けられました。この記事では以前のバージョンをもとに執筆していますのでご注意ください。


スマホでラジオを楽しめるアプリ「radiko」。
視覚障害者にとっては非常にありがたいサービスなのですが、残念無ことにアプリのアクセシビリティは決して高いとはいえません。基本的なインターフェイスがスクリーンリーダー向けに設計されていないことに加え、一時期は「再生ボタンが押せない」なんて騒ぎもあったりしました。
現在も相変わらず「再生コントロールが操作しにくい」とか「ラベルが付けられていないボタンが大量に存在」するなど、Voiceoverユーザーにはなかなかの使いにくさ。特に困るのが「ホーム」画面の現在放送中の番組リストで「放送局名が読み上げられない」という現象です。Voiceoverだと番組名しか読み上げられず何気にストレスなんですよね。
定期的にフィードバックはしているのですが改善される気配はなさそう。
なんとかならないものでしょうか。

ホーム画面の番組リストには、各番組名の横に「マイリスト追加」ボタンが用意されています。このボタンもVoiceoverでは「ボタン」としか読まないんですけどね。このボタンが追加された時は余計なものが増えたなあくらいに思ってました。

ここで閃きましたね。
このボタンにVoiceoverのカスタムラベル機能を使って放送局名を登録すれば、もしかしたら番組表から局名を確認できるようになるかも?
なぜ今まで思いつかなかったのだろう。
ちょっと強引なアイデアではありますが、思い立ったが吉日。早速やってみました。
ちなみに試した環境はiPhone 7。radikoアプリのバージョンは7.2.5、iOSのバージョンは13.4.1です。

  1. 「ホーム」タブを開く。
  2. 各番組のマイリスト追加ボタン(ボタンと読み上げる部分)にフォーカスする。
  3. 2本指でダブルタップ&ホールドする。
  4. ピコピコと効果音が鳴り「要素にラベルを設定」ダイアログがポップアップする。
  5. テキストフィールドをダブルタップして放送局名を入力する。
  6. 「保存」をタップしてラベルを保存する。
  7. これを放送局ぶん繰り返す。

ちなみに関東地区で聴取できる放送局名と順番は以下の通りです。

TBSラジオ
文化放送
ニッポン放送
ラジオNIKKEI第1
ラジオNIKKEI第2
InterFM897
TOKYO FM
J-WAVE
ラジオ日本
bayfm78
NACK5
FMヨコハマ
放送大学
NHKラジオ第1(東京)
NHK-FM(東京)

局名を手入力するのが面倒なら、radikoアプリの「番組表」タブを開いて、画面の上にある日付の少し下あたりに放送局のリストがあるのでこれを読み上げさせます。
すかさず「3本指4回タップ」してクリップボードに読み上げた内容をコピー。
「ホーム」に戻ってラベルを入力する際にテキストフィールドでローターの「編集」から「ペースト」を実行すれば局名が貼り付けられます。そのまま保存すればOK。
ただこの方法だと局名がすべて平仮名になっちゃうんですよね。少し気になるかも。
あ、3本指連続タップに慣れていないと間違って「読み上げオフ」の操作をしてしまうことがありますが、その時は慌てず3本指ダブルタップすれば読み上げが戻りますので覚えておきましょう。ちなみに3本指トリプルタップはスクリーンカーテンのオン/オフです。

何はともあれこれで「ホーム」に表示される番組名の次の項目にフォーカスさせることで放送局名を確認できるようになりました。番組名→放送局名というのは順番的に逆だろと思わなくもありませんが、それでも局名を確認できるのは便利です。なお筆者は有料プランを利用していないのでエリアフリーでこの方法が使えるかどうかは未確認。

局名を付けたボタンをうっかりダブルタップしてしまうとその番組が即座にマイリストに登録されてしまうので注意しましょう。もし間違って操作してしまったら「マイリスト」タブを開いてその番組の「編集」を開き、リストから削除しましょう。

あとひとつ懸念があるのはこのラベル、いつまで有効なのか?という点です。
Voiceoverのカスタムラベルは何かの拍子にリセットされてしまうことが多いような気がします。今のところ番組や日付が切り替わってもラベルの内容は保持されているようですが、しばらくは様子をみる必要がありそうですね。

本来であればこのような工夫をしなくても放送局名くらい読み上げて欲しいものですが、対応されるまでの(いつのこと?)繋ぎとしてこんな方法もあるよというお話でした。ちなみにカスタムラベルはラベルを消去(空白で登録)すれば登録前の状態に戻ります。

おまけ。

冒頭でradikoアプリにラベルが付けられていないボタンが多いという話をしましたが、これもアップデートを待つより自分でカスタムラベルを付けた方が早い気がしなくもありません。

iOS13では、一部のラベルが付けられていないボタンにカーソルをフォーカスすると、そのボタンの内容を解析し「候補」という形でサジェストしてくれる機能が追加されました。すべてのボタンで機能するわけではありませんが、例えばradikoのメニューを開いた画面にある「Button Icon Close」と読み上げられるボタンにフォーカスすると、一拍おいて「候補, 閉じる」とサジェストしてくれます。

この「候補」の内容を「3本指4回タップ」でクリップボードにコピーし、カスタムラベルにペースト、余分な文字を削除して保存すれば、より快適にradikoを利用できるでしょう。カスタムラベルを登録すれば、そのボタンでは以後サジェスト機能は働かなくなります。

ただこのiOS13のサジェスト機能も動いたり動かなかったりと挙動が今ひとつよくわかりません。iPhoneを再起動すれば動作する確率が高まる気がします。

2020年5月14日木曜日

Covid-19の統計グラフを「音」で感じられるWebサイト「A11Y COVID-19」。


Covid-19にまつわる情報において頻繁に目にするキーワードの一つに「曲線の平坦化(Flattening the Curve)」というものがある。
ウィルス感染者数などのデータをグラフにした際、その曲線を平坦、つまり緩やかにしていくことで医療資源の枯渇リスクを遠ざけましょう、という認識で多分大きくは間違ってないと思う。
報道や各種期間からの発表の中に、Covid-19の様々な情報を視覚化したグラフが掲載されていることに気がついている方も多いはず。これらのグラフを見れば表現されている曲線の形で、これまでの対策の効果や今後の流行傾向がある程度予測できるというわけだ。

だがこのグラフというものは極めて視覚的な表現形式であり、視覚に障害を持つ人々にとってはアクセシブルではない。Webに掲載されている大抵のグラフは画像形式になっており、スクリーンリーダーでアクセスする人々に対して十分な情報提供が行われていないというのが現状だ。

画像に含まれている情報を見えない・見えにくい読者に伝える手段としては、イメージの内容をテキストとして記述する「代替テキスト」が真っ先に挙げられる。スクリーンリーダーを用いれば、画像にフォーカスしたタイミングでその説明文を読み上げ情報を得ることができる。しかししこと「形」や「色」に重要な意味が含まれるグラフやチャートを的確に言葉で表現するのはとても難しい。
かといってグラフの元となる数値をそのまま代替テキストとして記述すれば良いかといえばそれもベストとはいえない。音声で読み上げられた数値をもとにグラフの形をイメージするには、読み取る側にそれなりのスキルと訓練が必要になるだろう。ましてやデータの数が膨大になってしまうともうお手上げである。
まあグラフの傾向をある程度言葉として説明することは可能かもしれないが、やはりグラフの形状を直接確認するのとしないのとでは受け取れる情報量に大きな差は出てしまうことは否めない。今回のパンデミックのような状況では情報格差が各個人の行動にも大きく影響しかねず、それが感染予防対策に悪影響を及ぼす可能性もある。情報アクセシビリティの確保は当事者のためだけでなくすべての人々の利益につながるというお話。

グラフをアクセシブルにする手段としては先述のような代替テキストや点図ディスプレイなどの触覚を用いる方法が考えられる。
そして「Sonification(可聴化)」も、そのような手段の一つ。これは要するにイメージを「音」に変換して表現しようというものだ。Sonificationは経済チャート天文学などグラフやチャートを頻繁に用いる分野ではすでに活発な研究が進められている技術のようだが、Covid-19騒動でグラフの重要性に注目が集まる中、視覚障害者への情報伝達手段としてにわかに脚光を浴びている模様。

A11Y COVID-19」は、Sonificationを用いてCovid-19の流行グラフを音声化し、視覚障害者にできるだけフレッシュな情報を提供することを目的としたプロジェクトだ。
開発したのは米国Smith-Kettlewell Eye Research Instituteのリハビリテーション工学研究センターで、デジタル・アクセシビリティに関する研究を行っているGiovanni Fusco氏。

このサイトではジョンズホプキンス大学から提供されるCovid-19関連データをグラフ化し可聴化した上で公開している。現在提供されているのは、米国、イタリア、ニュージーランド、スウェーデン、中国、そして世界全体の統計データ。なおデータは1日1回、23:59(UTC)頃に更新されるとのこと。

各国のページには最新の統計データと3種類のグラフが掲載されている。
それぞれのグラフにある再生(Sonify)ボタンをクリックすることでグラフの曲線形状をサウンドとして聞くことができる。具体的には音程の高さ/低さで数値の変化を、音程が変化するスピードで曲線の傾きを表現する。このサウンドを聞けば、グラフを眼で確認できなくてもある程度曲線の形をイメージすることができるだろう。
なお「Enable Stereo Panning」にチェックを入れると、音声が左からみぎに移動するエフェクトが有効になる。ヘッドホンなどを使えばよりグラフの曲線を想像しやすくなる。

もちろんこのサイトの情報だけでCovid-19の状況を把握することは難しいが「曲線の平坦化」の概念を理解する助けになるだろう。この経験を持って他の情報に触れることで、より理解度というか納得度が深まるような気がする。

Covid-19に関してはまだ未知の部分が多く、統計データもどれだけ事実を反映しているかは誰にもわからないというのが実際のところだろう。それでも障害のあるなしで得られる情報に格差があることの言い訳にはならない。すべての人々に対して平等かつ丁寧な情報提供が行われることを望んでやまない。ひいてはそれがすべての人々を守ることになるはずだ。

おまけ。
以下、A11Y COVID-19に掲載されているデータの概要をざっくりと紹介。

・「Brief」で確認できるデータ(数値のみ)。

Active cases:
現在の感染者数
Total number of COVID-19 infections since the start of the pandemic:
パンデミック発生からの累計感染者数
Total number of recoveries registered since the start of the pandemic
パンデミック発生からの累計の回復者数:
Total number of deaths reported since the start of the pandemic:
パンデミック発生からの累計の死者数

・「Plot」で確認できる情報(グラフ)

Plot - Active Cases of COVID-19(罹患者数の変化曲線)

現在Covid-19に罹患している患者数をグラフ化したもの。
米国やイタリアではある期間から一気にグラフが上昇し(急速に音程が上がる)、そして現在もまだグラフが上昇し続けていることがわかる。
一方、中国やニュージーランドでは新たな感染者数が回復者数を下回っているため、ピークを超えてからはカーブが下降して(音程がさがって)きている。

Plot - Total Confirmed Cases of COVID-19(総感染者数の増加曲線)
Plot - Total COVID-19 Deaths(総死者数の増加曲線)

この2つのグラフはパンデミック発生から現在までの累計感染者数と死者数の増え方を示している。そのためグラフが下降することはない。
注目するポイントは「音程の変化スピード」で、音程の変化スピードが緩やかなほど曲線の平坦化が実現されていることを意味している。例えば米国やイタリアと比較すると、スウェーデンの曲線はかなり緩やかのように聞こえる。

なお米国と世界全体のページでは末尾に州ごと、国ごとのCovid-19統計データがテーブル(表組)で掲載されている。こちらは数値のみ。

参考:A11Y COVID-19

2020年5月6日水曜日

[粗訳] 研究者は視覚障害者を支援する新しいデジタル地図の有効性を検証する。


※本エントリーは「Researchers find efficacy in new digital map in aiding visually impaired」をざっくり翻訳したものです。

凹凸のある表面と点字ラベルを備えた触覚地図は、長年にわたり目が見えない・見えにくい人々が新しい環境をナビゲートする際に役立ってきた。しかし、これらの地図を作成するには大きなコストがかかる。

米国メイン大学の研究者たちは、振動と音声メッセージで情報を提供する、より安価でアクセシブルな新しいタイプのデジタルインタラクティブマップ「vibro-audio maps」を開発し、その有効性をテストした。
彼らの研究によれば、視覚障害者を支援する上でこのデジタル地図は従来の触覚地図と同等の効果が得られたという。

VEMIラボの研究者は、タブレットやスマートフォンで表示したvibro-audio mapsを用い、視覚障害者が不慣れな場所の学習や移動に必要なスキルを向上させる効果があるかを検証した。

コンピューティング情報科学学部教授でVEMIラボの主任研究員であるNicholas Giudice氏、心理学講師でVEMIラボの共同研究員であるBenjamin Guenther氏、ラボマネージャーのKaitlyn Haase氏、そして昨年卒業した元UMaine心理学学生のNicholas Jensen氏らは、今回の研究成果を学術誌「Frontiers in Human Neuroscience」に発表した。彼らの研究は、国立科学財団から一部資金援助を受けている。

研究チームはvibro-audio mapsと従来からの触覚地図を用いて実験を行い、効果を比較した。その結果、新しいインタラクティブな地図は従来の地図と同様に、空間学習、メンタルマップの構築、スムーズな経路探索に役立つことがわかった。
研究チームは、多くの人々にとってアクセスしやすい市販のモバイルデバイス上で動作するvibro-audio mapsが、低コストのデジタルインタラクティブ地図の時代を推進する可能性を持っていると述べている。

Giudice氏は語る。
「これはすでに視覚障害者の80%が所有している市販のスマートデバイスを用いた多感覚な地図ソリューションを提供します。視覚障害者にとって、画期的な技術です」

一般的に物理的な触覚地図は、地名やその他の情報を伝達するために点字ラベルを使用し、地形の特徴やシンボルを強調するためにポイント、ライン、盛り上がった要素、つまりドット、ダッシュ、テクスチャの変化などの触覚表面属性を使用する。
見えない・見えにくい子どもや大人は、触覚地図を使用して新しい場所のメンタルマップを作成した上でその地域を通いルートを学習したりそのルート上の問題を解決するといったスキルを学ぶ。
しかし物理的な地図を作成するには専門的な知識を持つ職人の技術や専用のツール、大判のシートや地図冊子が必要となり費用と時間がかかってしまう。

一方、VEMIのvibro-audio mapsのようなデジタルインタラクティブ地図は、タッチスクリーンデバイスの音声と振動を用いて情報を提供するもので、タブレットやその他の市販のモバイルデバイスに手軽に導入できる。
VEMIの研究者によれば、デジタル地図には他にもリアルタイムに変化する情報の更新や、地図のパンニング・ズーム・スクロールなどの操作、さらに検索性などの利点もあるという。

この研究の詳細はこちらから参照できる。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...