2021年10月17日日曜日

触れたい物に向かって視覚障害者の手を導く「GuideCopter(ガイドコプター)」。ドローンによる視覚障害者支援の可能性を探る研究。

前回のエントリーに続き、ドローンを活用した視覚支援技術のお話です。

重度の視覚障害者がテーブル上の食器やドアノブなど特定の物体に触れようとした場合、大抵「手探り」で触れる対象物を探します。慣れた場所ならある程度、感覚で触れ当てることができますが、不慣れな状況では何かしらの手がかり、つまり情報が与えられなければあてもなく手探りを繰り返すことになります。目が見えていても真っ暗な部屋で照明のスイッチを探したり、洗髪中にコンディショナーを手探りした経験は誰にでもあるでしょう。一発で探し出すの、難しいですよね。

考えてみると、視覚を用いず特定の物体に素早く確実に触れるという動作は、結構難易度の高いミッションです。その一方、このような日常的なタスクを支援する手軽なソリューションは今のところほとんど存在しません。


ドイツ、パッサウ大学のFelix Huppert氏らの研究チームによる「GuideCopter - A Precise Drone-Based Haptic Guidance Interface for Blind or Visually Impaired People」は、2021年5月のCHI2021で発表された、視覚障害者の触察行動をドローンの誘導によって支援するというユニークな研究です(PDF)。


視覚障害者の触察をサポートする場合、対象物から誘導音を鳴らす、もしくは「もう少し右」といったように「音声」を用いて誘導する方法のほか、晴眼者が直接視覚障害者の手をとり、触れる物までエスコートするなどの手段が考えられます。

これまでにもこのような行動を支援する技術として、音声や振動フィードバックを用い視覚障害者を誘導するウェアラブルデバイス(指先装着型や手袋型など)が開発されてきました。しかしこのようなデバイスはユーザーの触覚を妨げたり習得に時間がかかるなど認知的負荷が高い欠点があると研究チームは語ります。

GuideCopterでは視覚障害者の感覚をできる限り損なわず、認知的負荷を軽減するため、ドローンによる誘導という手法を用いました。つまり触覚を妨げるデバイスを装着することなく、ドローンの引っ張る力で視覚障害者を導き、独立した触察行動を支援しようというわけです。


研究チームはさまざまな前実験を重ね、ドローンの動き方や引っ張る強さ、ドローンと手を接続するための最も効果的な方法を検討しました。

そして十分に引っ張る力を持った3インチのクアッドコプター(寸法20 cm ×5 cm)を独自に設計。このドローンを長さ50 cmの細いロープを用い、人差し指に装着したリングと接続しプロトタイプを制作しました。安全を確保するため、ドローンのプロペラには、カスタムメイドのプロテクターが取り付けられています。

10名の視覚障害者が参加した実証実験では、あらかじめ設定されたルートを飛行するGuideCopterが被検者の指を誘導し、物体を掴むまでの時間と正確さを計測。比較のため同じ物体を音声ガイダンスを用いて掴む実験も併せて行われました。

その結果GuideCopterは、音声による誘導システムと比べ、より早く、確実に目的の物体に触れることができ、認知的負担も少ないことがわかりました。

確かにユーザーはドローンの引っ張る力に身を任せてしまえば良いわけですから、音声を聞きつつ位置を調節するよりも直感的というか何も考えなくても使えるシステムであるといえます。この結果から、研究チームはドローンによる誘導システムが、視覚障害者の触察行動に一定の役割を果たセルのではと結論づけています。


もちろんこれはドローンによる誘導が視覚障害者の支援技術として有効であるかを検証するための基礎的な研究であり、すぐに実用化されるものではありません。しかし物体認識技術などと組み合わせることで、視覚障害者の触察行動のストレスを大きく軽減させる技術になるかもしれません。論文の中で研究チームは、小売店の商品を識別し、GuideCopterで欲しい品物を手に取るという応用例を提案しています。


視覚障害者をドローンが誘導するというアイデアはかなり以前から存在してはいましたが、手を引いて何かを触らせてくれるという、ある意味強引かつ大胆ともいえるGuideCopterの発想は個人的に新鮮でした。

これを実用化するためにはドローンの駆動時間や騒音、安全性といった多くの課題をクリアする必要があるでしょう。でも小型ドローンを使ったアイデアは考えるだけでも楽しそうです。

視覚障害者向け支援技術ではこれまで視覚的な情報を音声や触覚(振動)などに置き換える感覚置換(Sensory substitution)に基づいた技術が主流でした。しかし今後はドローンをはじめとするロボット技術との物理的というか運動的な相互作用の応用がアツいのかもしれません。今後どのような研究が出てくるのか、注目したいところです。


2021年10月11日月曜日

「Flying Guide Dog(空とぶ盲導犬)」は、ドローンと真相学習アルゴリズムで視覚障害者をナビゲーションし信号機も識別する。

視覚障害者にとって盲導犬は「引っ張られる」という連続したフィードバックによる安全・確実な誘導手段として安定した評価を得ています。あの安心感と比べると、やはりスマートフォンなどによるスポット的な音声・振動ナビゲーションは習得が難しく確実性に欠けると言わざるを得ません。もちろん便利ではあるんですけどね。

テクノロジー(主にロボット工学)によって盲導犬のようなナビゲーションの実現を目指す研究はこれまでにも数多く行われてきました。例えば四足歩行ロボットを応用したものなど。そのような中、着目されたのが空中を軽快に飛行する「ドローン」です。


ドイツ、カールスルーエ工科大学(KIT)の学生、Haobin Tan氏らによる研究チームは、ドローンによる視覚障害者のナビゲーションシステムに関する研究「Flying Guide Dog: Walkable Path Discovery for the Visually Impaired)PDF)」を発表しました。


この研究で用いられたドローンはDJI社の「Tello」。被検者はドローンから送られた映像を処理し飛行を制御するノートPCを収納したバックパックと音声ガイダンスを聴くための骨伝導ヘッドセットを装着します。

ドローンは被検者を先導する形で飛行し、装着されたロープで視覚障害者を引っ張りながら誘導する仕組みです。「Flying Guide Dog」の名のとおり、まさに空飛ぶ盲導犬、と呼べる雰囲気のシステムです。


ドローン制御のアルゴリズムには、画像の要素にラベルを付与する真相学習技術の一つであるSemantic Segmentationを採用。ノートPCはドローンが撮影した屋外環境の映像から歩道や横断歩道などのオブジェクトを検出し歩行可能なルートや避けるべき障害物を決定。それをもとに飛行方向や速度をリアルタイムに調節します。

また研究チームは、交通信号機の認識に特化した独自のデータセット「Pedestrian and Vehicle Traffic Lights(PVTL)を構築。視覚障害者が安全に横断歩道を渡れるよう、歩行者用信号機の色を判別巣る機能も加えました。

ドローンは赤信号を認識するとその場でホバリングし、信号が青に変わるまでの間待機すると同時に、骨伝導ヘッドセットを通じその情報をユーザーに伝達します。


研究チームはプロトタイプを制作し、目隠しをした被検者を対象に実証実験を行いました。その結果、Flying Guide Dogのナビゲーション能力について、一定の有用性が認められたというフィードバックが得られました。特にロープで引っ張られる誘導方法は習得が容易で直感的に使えるという点で高く評価されました。

一方、用いられたドローンはバッテリー容量が小さく、飛行時間はわずか13分あまり。さらに本体重量が軽いため風にも弱いという欠点も明らかになりました。この問題を解決するためには、より長時間バッテリー駆動可能な大型ドローンを用いる必要があると研究チームは語っています。将来的には制御アルゴリズムの改良とともに、組み込みAIコンピューターを用いシステム全体の軽量化を進めるなど改良を加えていくとのことです。


これまでにもドローンを視覚障害者のナビゲーションに応用する試みはいくつか見られましたが、AIを導入することで(まだ限定的ではありますが)その実現に一歩近づいた印象があります。

しかし現実味を帯びると同時に、ドローンによる視覚障害者の誘導が社会的に需要されるのだろうか?といった問題も出てきます。衝突・墜落による危険性や騒音といった課題も考えられるでしょう。

この問題に関してはドイツの研究者Mauro Avila Soto氏らによる「Look, a guidance drone! Assessing the Social Acceptability of Companion Drones for Blind Travelers in Public Spaces」と題された社会実験が参考になるかもしれません。この実験はドローンに限らず、新しい支援テクノロジーが社会に対しどのような影響(ポジティブ、ネガティブともに)を及ぼすのか、という視点を与えてくれます。

個人的には、こんなドローンに連れられて広い公園などをぶらぶらお散歩してみたいと思いました。できれば音声ガイドなどしてくれれば、さらに最高な気がします。


参考:[2108.07007] Flying Guide Dog: Walkable Path Discovery for the Visually Impaired Utilizing Drones and Transformer-based Semantic Segmentation (arxiv.org)


2021年10月5日火曜日

オーストラリア。ブラインド・クリケット用スマート・オーディオボールを開発。動きが停止してしまっても電子音でボールの位置を確認することができる。

White prototype cricket ball.

画像引用元:manmonthly.com.au


クリケットという球技をご存知でしょうか。日本でこそマイナーなスポーツですが、発祥地である英国をはじめ、インドとその周辺国、南アフリカ、オーストラリアなどでは国民的スポーツとして熱狂的な人気を得ています。

詳しくはないので解説はできませんが、とにかくピッチャーが投げたボールをバッターが打ち得点を競う、野球ににたルールの球技のようです。英国発祥のスポーツらしく、試合の合間にティータイムが設けられているなど独特の作法があるのも特徴的です。


そしてこれらの地域では、視覚障害者が参加できるスポーツとして「ブラインド・クリケット」が定着しており、ワールドカップも開催されています。オーストラリアでは1922年から競技スポーツとして親しまれている歴史のあるパラスポーツなのです。


ブラインド・クリケットの試合ではボールを視覚的に確認できない選手のため、中に鈴やベアリングが仕込まれているオーディオ・ボールが用いられます。通常のものよりもわずかに大きなこのボールを使うことで、音を頼りにボールを打ったりキャッチすることができるようになるわけです。

同様の仕組みを持つオーディオ・ボールは視覚障害者向けの球技、ゴールボールやブラインドサッカー、サウンドテーブルテニスなどでも採用されていますが、このようなボールには「動きが止まると音がならなくなる」という大きな欠点があります。

競技にもよりますが、この欠点を逆手に取り、あえてボールの動きを止めることで対戦相手から「ボールの存在を消す」テクニックを使いこなすアスリートもいます。しかし大抵の場合、予期せずボールが止まってしまうと、ボールの位置を確認するためにゲームを中断しなければなりません。


そこでオーストラリアのブラインド・クリケット支援団体、Blind Batsの代表であるPaul Szep氏は、スマートフォンアプリから遠隔操作でき、電子的なオーディオが連続して再生されるスマート・ボールのアイデアを思いつきました。この新しいオーディオ・ボールを実現するためには、繰り返されるバットの打撃による衝撃に耐え、ブラインド・クリケットのルールに沿った大きさと重さを守らなければなりません。

このアイデアに応え、世界初のインテリジェントなクリケットボールである「Kookaburra SmartBall」を開発したKookaburra社は、3Dプリントによるプロトタイプ制作を得意とするGoProto社と協力し、ステレオリソグラフィー(SLA)による新しいブラインド・クリケット用のオーディオ・ボールを制作しました。

完成したウレタン素材のプロトタイプは公式ゲームのレギュレーションにも適合しており、近日Blind Batsが開催するゲームでお披露目されるとのことです。


このようなスマートなオーディオ・ボールの開発は他にもモントリオール大学によるオーディオ・アイスホッケーパックなどのプロジェクトが進められています。クリケットと比べこちらはさらに、低温と水分という大きな課題を克服する必要があったようです。


長い歴史を持つ視覚障害者向けパラ球技に、これらのようなテクノロジーがどれだけ受け入れられるのか、興味深いところです。おそらく歓迎一辺倒ではないような気がします。先述のようなアナログなボールならではのテクニックが編み出されている状況では、スマート・ボールの登場は大きなルール変更にも等しいものがありそうですからね。レクリエーションならまだしも、こと競技スポーツに関しては最新のテクノロジーの導入が必ずしもベストではないのかもしれません。

まあそれはさておき、個人的にはこのようなスマート・ボールを活用したビリヤードとか、新しいブラインド・スポーツを考える方が面白そうでは?と思ったりしたのでした。


参考:Smart cricket ball is developed for visually impaired players (manmonthly.com.au)


2021年9月30日木曜日

視覚障害者向けLinuxディストリビューション「Accessible Coconut」。

Screenshot of Accessible Coconut.

画像引用元:Zendalona


Accessible Coconut(AC)は、視覚に障害のあるユーザーに向け開発されているGNU / Linuxディストリビューションです。Ubuntu-MATEをベースにしており、インストール直後の状態で、キーボード操作と音声/点字出力を駆使し、画面を見ることなく全ての機能にアクセスできるよう設計されています(デモ動画)。

ACは点字出力および拡大鏡をサポートするOrca スクリーン・リーダーがデフォルトで有効になっており、日常生活に必要なFirefox、Chrome、Thunderbird、VLC、LibreOffice、KDE Connectなど、お馴染みのアプリケーションが一通りプリインストールされているほか、視覚障害者向けの特別なツールもバンドルされています。例えば、


  • 画像からテキストを抽出するOCRアプリ。
  • パーキンス・スタイルの6点入力アプリ
  • ショートカットキーのカスタマイズツール。
  • 電子書籍およびデイジー書籍リーダー。
  • コンソール向けスクリーンリーダー。


など。他にもタイピング練習や数学学習、楽器演奏、メディア編集、チェスゲームといった教育・エンタメ系のアプリもたくさん同梱されています。もちろん全てキーボード操作と音声で利用できるとのこと。

ACは無料で、公式WebからISOイメージファイル(現時点でおよそ2.7 GB)をダウンロードし、DVD-Rに書き込みブートするなり仮装マシンに放り込むなどお好みの方法で試すことができます。実機にインストールする場合はパーティションやブートローダーなどそれなりの前知識が求められますのでご注意ください。

私はと言いますとすぐに試せる環境はmacOS上のVirtualBoxのみで結構長時間いじってみたのですが起動させることは叶わずでした。VoiceoverでVirtualBoxはとても使いにくいです。何かが間違っているような気もしますが根負けしましたすみません。

とにかくACは、手間や時間をかけてカスタマイズしなくてもアクセシブルなLinuxのデスクトップ環境が体験できると言う意味で手軽で良い気がします。


調べてみると視覚障害者向けLinuxディストリビューションとしては他にも(現在メンテナンスされていないものも含め)BlinuxBlindarchVinuxSonarなどいくつかのプロジェクトが見つかりますし、UbuntuやFedoraといったメジャーどころのディストリビューションはOrcaなどの支援技術があらかじめ用意されているためカスタマイズすることである程度はアクセシブルに使えるようです。


ただデスクトップLinux、実際のところ視覚障害者にはどれだけ浸透しているのでしょうか? 2021年5月にWebAIMが実施したScreen Reader User Surveyでは、Linuxを利用していると回答した視覚に障害のあるユーザーの割合はわずか1.4%。

日本ではさらにLinuxの影は薄く、同時期に 日本視覚障害者ICTネットワーク (jbict.net)が実施した第1回支援技術利用状況調査では選択肢にすら入っていないと言う状況です。まあこれはOrcaの日本語対応を考えると仕方のないところではあるでしょう。


もちろんLinuxには他のOSには無いメリットがあるのも事実ですが、やはりメインで使うとなると至れり尽くせりな商用OSを選ぶのは極々自然な成り行きでしょう。特に日本語で読めるLinuxのアクセシビリティに関する情報が圧倒的に少ないのは心細いところです。

視覚に障害のある開発系エンジニア諸氏がLinuxを使う場合、WindowsなりMacからログインし、読み上げはホストOS側から行うのが一般的のようです。

そう考えると現状のLinuxを平均的なICTスキルを持つ視覚障害者がメインに使うにはハードルが高いと言わざるを得ません。まあ空いているマシンにインストールして遊ぶ分には面白いとは思うんですが。


ただ個人的にはLinux、展開次第では視覚障害者のコンピューティングを大きく進化させる可能性を持っているのではと思うのです。

WindowsにしろApple系OSにしろ、基本的に晴眼者向けのインターフェイスの上にスクリーンリーダーを乗せて使うことになるわけですが、やっぱり基本がGUIですから無理が出てしまう。これはAccessible Coconutが採用しているMateデスクトップ環境も同じです。

でもユーザーにより自由にカスタマイズできるLinuxであればその気になればスクリーンリーダーとキーボードナビゲーションに最適化されたデスクトップ環境を構築することは不可能ではないはず。多分。

もしも簡単に学べて簡単に使えて、しかも軽快にサクサク動く環境が実現すれば、Linuxが視覚障害者にとって大きな選択肢の一つになり得るのでは、と妄想するのでした。

好き勝手書いてしまいましたが、今後の盛り上がりに期待したいところです。


参考:Accessible-Coconut: The Ideal Linux Distro for the Visually Impaired (makeuseof.com)


2021年9月28日火曜日

英国リバプール。ビートルマニアの聖地「Strawberry Field」が、障害者にもアクセスしやすいインクルーシブな観光スポットに進化。

"Let me take you down,  'Cause I'm going to, Strawberry Fields."  The Strawberry Field Visitor Centre, seen from the gardens

画像引用元:strawberryfieldliverpool.com


英国リバプールにあるStrawberry Fieldといえば、少年時代のジョン・レノンが遊び、1967年発表の楽曲「Strawberry Fields Forever」ゆかりの地として世界中のbートルズファンにはお馴染みの観光名所です。

かつては孤児院として運営されていたこの施設は現在、学習障害のある若者のためのトレーニングセンターとして活用されており、一般観光客には長い間開放されてきませんでした。そのためStrawberry Fieldを訪問したビートルズファンは閉ざされた赤い門の前で写真を撮ったり、隙間から中の様子を覗き込むことくらいしかできませんでした。

しかし2019年9月、この施設を運営・管理しているSalvation Armyの手によって、このメモリアルな施設の一部が整備され、一般に向けその門が開かれたのです。


参考:ジョン・レノンゆかりの地「ストロベリー・フィールズ」、一般公開 写真12枚 国際ニュース:AFPBB News


公開されたStrawberry Fieldのビジターセンターでは「Strawberry Fields Forever」やジョン・レノンに関連した様々な資料やインタラクティブなツアーが展示され、落ち着いた雰囲気を持つビクトリア朝の庭園やカフェでこの名曲にインスピレーションをあたえたかつての孤児院に想いを馳せることができます。入場チケットやショップからの収益は、現在も併設されている学習障害者施設のために使われるとのこと。


そして先日、この施設のアクセシビリティが大きく向上したという記事がでていました。

それによると、施設全体にわたり徹底したバリアフリーが整備され、完全な車椅子アクセスを確保。加えて、視覚に障害のあるビジターに向け、多言語に対応したオーディオガイドや触れて楽しめる展示、そして経験豊富なスタッフによるガイドツアーが提供されるとのことです(公式サイトの情報では日本語には未対応)。また全ての映像コンテンツには聴覚障害者に向けたキャプションが付けられました。

また「Strawberry Fieldは、より包括的な設備を備えるChanging Places Toiletsの認証を受けた最初のアミューズメント施設の一つでもあります。Salvation Armyは2022年を目標に、認知症や自閉スペクトラムのあるビジターに向けたサービスを追加し、より包括的な施設を目指していくとのことです。


解散から50年あまり。ビートルズファンも高齢化が進んでいるはずですから、このような取り組みは歓迎されるのでは無いでしょうか。

Salvation Armyが孤児院としてこの施設を受け継いでから80年以上。長い歴史を尊重しながら、アクセシビリティはアップデートし続けていくという姿勢は他の文化施設に対しても参考となるようにも思います。


そういえば「Strawberry Fields Forever」の歌詞にはこのような一節があります。

"Living is easy with eyes closed,

misunderstanding all you see."

見えないからこそ感じられるものが、ここにはあるのかもしれませんね。


参考:Strawberry Field leads the way in accessibility to all, with advanced features - The Guide Liverpool


2021年9月27日月曜日

キーワードは「ガス爆発」? 触覚ディスプレイの低価格化を目指す新しい研究。

Two images that show the change in surfaces triggered by combustion.

画像引用元:Ars Technica


点字や触図といった触覚から情報を得るメディアは視覚障害者に対する情報提供手段として長い歴史を持ち、非常に重要なものではあります。

しかしその一方、特にデジタルの分野では音声と比べ活用の幅が限定的であることは否めません。これには点字の識字率の低下もありますが、機材や制作に必要なコストもその一因となっているようにも思えます。、その象徴ともいえるのが、点字ディスプレイの価格でしょう。

近年ではセル(点字1文字の単位)数を減らし価格を下げた製品も販売されてはいますが、実用的なセル数を持つ点字ディスプレイはそこらのハイエンドPCを軽く超えるお値段。自治体による補助も重複障害者限定であったり点字のスキルが求められるなど非常にハードルの高いものとなっているのです。


点字ディスプレイを構築するためには、幅5ミリ、高さ8.5ミリ程度という僅かな面積のセルに6つのピンを上げ下げする仕組みを設計し、それをセル数分だけ並べなければなりません。

現在流通している点字ディスプレイでは圧電素子や磁気によりピンを隆起する方式が採用されていますが、いずれにせよ精密かつ複雑な部品を大量に用いなければならず、どうしてもコストが跳ね上がるわけです。

触覚を通じた情報伝達手段をより多くの視覚障害者へ提供するためには、大量のピンを制御できる低コストな技術が求められているのです。本ブログでも1つのアクチュエーターで40セルを更新するCanute 360や、電圧により記録した形状を再現する素材液晶エラストマーといった新技術の話題を取り上げてきましたが、ここでまた新しい点字ディスプレイに関する研究が発表されました。


Valveless microliter combustion for densely packed arrays of powerful soft actuators」と題された研究では、機械的な機構を一切用いず、「ガスの燃焼」でピンを持ち上げるという、斬新かつ非常にワイルドな方法が提唱されています。

この研究では、ピンを隆起させるためにメタンと酸素の混合ガスを燃焼させ膨張する柔軟なポリマー素材のバブルとそれに燃料を供給するパイプ、そして着火に用いる2本のワイヤーと言う非常にシンプルな構造が考案されました。

ワイヤーに電流を流すとバブルに溜められたガスが爆発し、大きく膨らみます。その圧力でピンを押し上げ、点字を表現する仕組みです。膨張したバブルはすぐに収縮してしまいますが、押し上げられたピンはマグネットの磁力によりその状態がキープされるわけです。構造がシンプルであるため、点字ディスプレイだけでなく、グラフィックスをピンで表現する触覚ディスプレイにも応用が効きそうです。

ここで気になるのは、どのようにしてピンを下げるのか? 実は現状、読み終えたら手動でピンを押し下げなければならないとのこと。ちょっとスマートな感じではありませんが、研究チームはあまり問題とは考えていないようです。あくまでもコスト重視ということでしょうか。


ただ製品化を考えると燃料となる混合ガスの安全性や燃焼時に発生するノイズ、バブルの耐久性など課題は多いようにも思えます。何せ、のべつ幕なしにガス爆発を続けるデバイスですからね。少なくとも使う時は換気が必要ですね。

それでもシンプルな構造を持つこの技術が触覚ディスプレイのコストを下げる可能性を持っていることは確かでしょう。個人向けは難しくても、大掛かりな触覚ディスプレイを学術・教育機関向けに開発するのも面白いかもしれません。

まあ実現性は低いのかもしれませんが、爆発を活用するという大胆なアイデアは面白いですし、なにより触覚ディスプレイというニッチなジャンルに対し、新しい研究が行われているという事実に、心強さを感じたりするのでした。


参考:Braille display demo refreshes with miniature fireballs | Ars Technica


     

2021年9月10日金曜日

米国マクドナルド、同社のキオスク端末に「JAWS Kiosk]を導入。視覚に障害があっても音声を用いた操作で注文から支払いまでを単独で実行可能に。

JAWS Kioskを操作する視覚障害者の様子。画像引用元:TPGi


米国マクドナルドは2021年9月9日、、支援技術ディベロッパーであるVispero社とと提携し、同社が運営する直営店およびフランチャイズ店舗に設置されているキオスク端末に対し「JAWS Kiosk」テクノロジーを採用したことを発表しました。

なおここで言うキオスクとは駅の売店のことではなく、商業施設やコンビニなどに設置されている、おもにタッチパネルで操作し情報やサービスを提供する情報端末のことを指します。


米国をはじめ海外のマクドナルドでは、注文から支払いまでをセルフで行えるキオスク端末が広く普及しており、設置される店舗はCovid-19感染拡大の影響で急激に増えています。中には有人のレジが一切設置されていない店舗もあるとのこと。

マクドナルドに限らず、人手不足や感染症対策によりサービスが無人化されるのは致し方のない流れではあります。しかし有人サービスから置き換えられた情報端末の多くには、目の見えない・見えにくい人々は全くアクセスすることができません。

サービスの無人化の中でアクセシビリティが無視され障害のある人々が排除されるような状況が加速されつつあるのです。


JAWS Kioskは視覚障害者などに向け、Vispero傘下のTPGi社が開発する、JAWSスクリーンリーダーなど同社が持つ技術を統合したアクセシブルなキオスク・ソリューションです。(動画:Jaws Kiosk - YouTube

目の見えない・見えにくい顧客はJAWS Kiosk端末に用意されたオーディオジャックにヘッドホンを接続することで音声によるナビゲーションを開始できます。あとはテンキーや矢印キーを用いて画面上の情報を音声で確認しながら、誰の助けも借りることなく端末の操作を完了することができるようになります。またロービジョン向けには、画面の拡大やコントラスト強調などの機能も提供されます。


マクドナルドの新しいキオスク端末が実際にどのようなインターフェイスや機能を持っているのかは現時点で明らかではありませんが、世界屈指の外食チェーンがJAWS Kioskを採用したことで、キオスク端末のアクセシビリティに注目が集まることは間違い無いでしょう。

加速するサービスの無人化に不安を抱く視覚障害者にとってこのニュースはちょっとだけ明るい未来を感じさせるものであるように思いました。


ちなみに日本のマクドナルドは公式アプリがVoiceoverで操作できなかったり公式サイトのアクセシビリティが不足しているなど、視覚障害者に対してはあまり優しくないという印象です。お店では親切にアテンドしてくれることも多いのですが(そうでない時もある)、周辺のサービスについても海外のようにアクセシブルにしていただきたいところですね。

あ、月見パイ食べましたけど美味しかったですよ。


参考:McDonald’s Partners with Vispero to Provide Access for Blind and Low Vision Customers in US Self Order Kiosks (prweb.com)


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...