2019年2月13日水曜日

視覚障害者のスマホ学習に欠かせない「触図」の意外なアイデア。



視覚障害者のスマホ利用に欠かせないのが音声読み上げ機能。iOSには「Voiceover」、Androidなら「Talkback」と呼ばれる機能が標準で用意されている。
音声読み上げ機能を使ったスマホ操作の基本は、画面内の項目を左右スワイプで順番に読み上げ、ダブルタップで決定、ということになっている。だが、そんなまだるっこしい操作をやっている視覚障害者はたぶん少数派ではないだろうか。
大抵は画面内にあるボタンなどの項目の位置を覚えておき、その場所を直接タップしながら使っているはずだ。音声だけでスマホを使うと言っても、頭の中にはある程度スマホの画面をイメージしなければスムーズにスマホを操作することはできない。
スマホを使う視覚障害者は、画面を見ていないように見えて、実は脳内の画面を「見て」いる。

そのため、新しいアプリを使い始めるときなどは操作に時間がかかって仕方がない。ほぼ全盲の筆者は画面を覚えていないアプリに出会ったら、まず画面全体をまんべんなくナデナデしてボタンなど各要素の位置をチェックし、頭の中に画面のイメージを構築するようにしている。
ただそれは、ある程度スマホのインターフェイスのセオリーを理解しているからできることではないかとも思ったりする。

見えない・見えにくい人が一からスマホを覚えるには、この「画面のイメージ」をいかに持てるようになるかがポイントだろう。これが、物理ボタンで機能を確認できる機器と比べたときの大きなハードルではないかと感じている。
そのハードルを下げるべく活用されているのが触図だ。
視覚障害者向けのスマホ教室では、スマホのホーム画面やよく使うアプリの画面構成を触れて理解するための「触図」がよく用いられる。
触図は3Dプリンターで印刷した立派なものからボール紙にシールを貼った簡易的なものまで様々な作り方があるが、いずれにせよレクチャーする画面の分だけ制作するのは結構手間もコストもかかるし、フレキシブルさに欠ける。

Vision Australiaのアクセシビリティ・スペシャリスト、Tony Williams氏のアイデアは、まさに目から鱗というかコロンブスの卵的というか。彼が用いたのは「レゴブロック」。
彼は正方形のブロックを使って、iPadのホーム画面に並んだアイコンやドックを再現。iPadを初めてVoiceoverで使うユーザーが配置されたブロックの凹凸に触れることで、画面をイメージしやすくするという。

確かにレゴブロックなら説明する画面に合わせて臨機応変に触図を組み替えられる。あらかじめ作って置いた触図だと実際のiPhoneの画面と細かい部分で違いが出ることも多くそれが混乱の元にもなりがちだ。ブロックなら画面に合わせてそのばでカスタマイズできるので説得力も出やすそうだ。ブロックに点字シールなどを貼付するなどの工夫も良いかもしれない。
レゴはブロックの大きさや高さのバリエーションも豊富だし、熟練すれば画面の推移をリアルタイムに近いタイミングで伝えつつレクチャーできるようになるかも。
そして何よりブロックをいじるのは楽しい。油断してるとうっかりブロックで遊び始めてしまいそうではあるが、それもまたよし。
触図をお土産にできないのが難点かな?

それにしてもレゴが秘めているポテンシャルは侮れない。触覚コミュニケーションツールとして視覚障害者は基本セットくらいは手元に置いといてもいいかもね。
何事も工夫次第ですなあ、と思ったお話でした。

関連リンク:

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

画像引用元: TPGi 米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「 JAWS Kiosk 」テクノロジーを採用したことを発表しました。 なおここで...