2021年7月29日木曜日

英国。音声ガイドの拡張を目指す研究「ENHANCING AUDIO DESCRIPTION」。サウンドデザインの再構築と立体音響で、音声ガイドの「情報量の壁」を克服する。

視覚障害者が映画やテレビといった映像メディアを楽しむ手段として活用されているのが「音声ガイド」です。

音声ガイドは、画面うえにある風景や人物のアクション、衣装などの視覚的な情報を言葉によって記述し、オリジナル音声の「隙間」に音声ナレーションとして挿入します。

この説明をきいた視覚に障害のある視聴者は、言葉からそのシーンを頭の中にイメージすることでその作品を楽しむことができるようになります。


視覚障害者にとって重要な情報入手手段である音声ガイドですが、視覚的な情報を言葉として表現する以上、映像と文字の間にある「情報量の差」という、どうしても乗り越えなければならない壁があります。

音声ガイドはオリジナル映像の時間内に納めなければならないため、場面によっては必要な情報が入りきらなかったり、ナレーションを挿入する隙間が短いなど、説明する情報を取捨選択しなければならない状況が生まれます。どの情報を残しどの情報をカットするかは主に音声ガイド制作者(ディスクライバー)のセンスと経験に委ねられているというのが現状なのです。

この「情報量の壁」を突破し、よりアクセシブルな映像メディアを実現するためには、従来のノウハウに加え、新しいテクノロジーの導入が求められます。


ENHANCING AUDIO DESCRIPTION(EAD)は、英国ヨーク大学のMariana Lopez博士を中心に、Arts and Humanities Research Councilからの資金提供を受け、2016年に発足した研究プロジェクトです。

AEDは創造的なサウンドデザインと空間オーディオによって映画やテレビの音声ガイドの表現を拡張し、オーディオ解説における情報量の格差を縮小することで視覚に障害のある視聴者の映像体験をより豊かなものにすることを目指しています。

EADは以下の3つのアプローチから音声ガイドの拡張を提唱しています。


1.効果音を追加したサウンドデザイン

映像に含まれる効果音は視覚障害者がシーンを理解するための重要なヒントですが、映像として描かれていても音を発さなければ、視覚障害者はその存在を認識できません。余程ストーリー上重要なものでなければ音声ガイドで説明される事はないでしょう。また音声が「BGMだけ」のようなシーンでは、言葉による説明が必要です。

そこでEADは音声ガイドトラックに独自の説明的効果音を加えることで、説明に費やされる言葉を減らすという手法を提案しています。例えばBGMをバックに人物が歩いているシーンでは、足音や樹木の揺れる音、人物の息使いなどを加えることで、情景の様々な部分を効果音だけで表現できます。その分他の要素を言葉で説明できるようになるわけです。


2.立体音響を応用した状況説明

近年ではDolby Atmosのようなあらゆる方向からサウンドが聞こえてくる立体音響を導入した作品も増えてきていますが、まだ多くの映像作品では、登場人物のセリフや効果音は画面の決まった方向からしか聞こえてきません。

EADは立体音響を応用し、セリフや効果音をその音が発せられている場所から再生することで、位置関係や動きなどの空間情報を伝達する手法を提案しています。

複数の登場人物が向いあって会話するシーンやアクションシーンなど、キャラクターの位置関係に重要な意味のあるシーンでは、聴覚から瞬時に位置関係を把握できる立体音響が効果的でしょう。反面、情報量が過多になりやすいというデメリットもありそうです。


3.一人称視点のダイアログ「I-voice」

従来の音声ガイドの解説は原則として客観的な視点から描写することが求められてきたため、感情や心理状態、特定の行動などを言葉として伝えることは困難でした。例えば俳優の微妙な表情の変化から滲み出るニュアンスは、客観的な描写だけでは伝えきれないでしょう。

EADはこのような内面的な情報をそのキャラクターから発せられる「モノローグ」として表現する「I-voice」と呼ばれる手法を提案しています。客観的なナレーションと区別するため、I-voiceにはリバーブなどの音響効果を加えます。


2017年、ヨーク大学、BSc in Film and Television Productionの学生は「Pearl」と題した20分間のショートフィルムを制作しました。この映像には立体音響とI-voiceによるナレーションが加えられています。以下の動画はその予告編です。EADが目指している拡張された音声ガイドの雰囲気を垣間見ることができるでしょう。


Enhancing Audio Description - Pearl Intro (Binaural Mix Plus iVoice) - YouTube


EADの研究は、オーディオフィルム(音声のみで表現されたドラマ)やオーディオゲーム、インクルーシブ演劇、そして2016年に公開されたドキュメンタリー映画「Notes on Blindness]などの作品からインスピレーションを受けています。

研究者はこれらの先鋭的なサウンドデザインを持つメディアと比較すると、現在主流の映画やテレビの音声ガイドはアクセシブルな技術の導入に関して非常に消極的であると語っています。


現状、音声ガイドの多くはオリジナル映像作品とは文理されたプロセスで制作されています。このような状況では新しい技術の導入は困難であり、音声ガイドが内包する「情報量の壁」を解消する事は並大抵のことではありません。

EADは拡張された音声ガイドを実現するため、、映像制作プロセスに音声ガイドの制作工程を組み込み、両者が協調して映像のサウンドデザインを行えるような環境の構築を提唱しています。


この拡張音声ガイド、実現するにはかなりハードルが高そうですが、音声ガイドにもまだまだ進化の余地はあると妄想が膨らむ研究ではあります。いつかは映画館で体験してみたいものですね。


参考:How audio can improve accessibility for TV and film audiences | ProSoundNetwork.com


2021年7月24日土曜日

米Mass Eye and Ear、視覚障害者へ障害物を警告するウェアラブルデバイスを開発。胸元のカメラと両手に装着した振動リストバンドで、37%の衝突トラブルを回避。

A close-up of the image processing unit of the wearable collision device. Credit: Mass Eye and Ear

画像引用元:medicalxpress.com


米国の医学研究所Mass General Brigham傘下の医療機関、Mass Eye and Earに所属する視覚リハビリテーションの研究チームは、AI駆動カメラと振動リストバンドを組み合わせた視覚障害者向けの障害物検知ウェアラブルデバイスを開発しました。

白杖もしくは盲導犬ユーザーを対象とした実験では、このデバイスがアクティブであった場合、そうでない時と比べ障害物と衝突するリスクが37%軽減されたという結果が得られました。この研究結果は学術誌JAMA Ophthalmologyに掲載されています。


周囲の障害物を検知して視覚障害者の安全な歩行を支援するデバイスは、市販されている製品も含め様々なものがありますが、その有効性について客観的に証明されている製品はほとんど存在していないとMass Eye and Earの研究チームは語ります。

そこで今回の研究では実際の社会生活の中でデバイスの潜在的な効果を調査するためランダム化比較試験(RCT)と呼ばれる実験手法が採用されました。


実験に用いられたデバイスのプロトタイプは、首から下げる広角カメラと両手首に装着するBluetooth振動リストバンド、そしてこれらを接続するメインユニットを備えたバックパックで構成されています。

メインユニットは画像認識AIを用い、カメラの視野に入ってくる物体とその周囲の物体の相対的な動きから衝突の危険性を分析します。左右どちらかに衝突の危険を検知すると対応するリストバンドを、また障害物が正面にある場合は両方のリストバンドを振動させてユーザーへ警告します。

このデバイスでは物体の相対的な動きを分析し、衝突の危険性のある障害物の接近だけを警告します。つまりこれは、どんなに近くにある物体であっても、衝突の危険性がなければそれを無視し不必要な警告を行わないということを意味します。


研究チームは視覚障害者31名に対し、このデバイスを白杖や盲導犬と併せて使用してもらう実証実験を一ヶ月間にわたって行いました。、

実験に使用されたデバイスは通常通りに障害物を警告するアクティブモードと、警告せずにロギングのみを行うサイレントモードがランダムに切り替わるようになっています。これは医薬品試験におけるプラセボ条件と同様のルールで、ユーザーも研究チームもモードがいつ切り替わるかはわかりません。

実験終了後、研究チームは記録されたログをもとにそれぞれのモードで発生した衝突事故を比較分析し、デバイスの有効性を評価しました。その結果、アクティブモードにおける事故発生率は、サイレントモードと比べ37%低いことがわかりました。

研究チームは今回の実験で得られたデータをもとにデバイスを改善し、将来的にはFDAの認証を受けて製品化を目指すとのことです。


さてこの「37%」という数字、落ち着いてみてみると、デバイスを装着していたとしても3回に2回近くは危険を回避できていないということになります。逆にいえば3回に1回は激突を免れていたわけで、この結果をどう感じるかはこの手のデバイスの経験の有無などによって変わってきそうです。

そもそもこのような支援デバイスはユーザーの障害の程度や習熟度、歩行スキルなどにより効果にはばらつきが生じやすく、この研究結果は被検者数から考えても必ずしも全ての対象ユーザーに当てはまるものではないでしょう。客観的な評価をどのように行なっていくのか、難しい問題です。


ただ個人的に、この結果は少なくとも支援デバイスの限界を表しているようには感じました。このようなデバイスの話を聞くと、どうしてもこれさえあれば健常者と同じように安全に歩けるようになるという希望的妄想を抱きがちです。しかしこの研究結果を見ると、現実は想像していたほど完璧なものではありません。

デバイスはあくまでもユーザーを補助するためのものであり、基本的な白杖歩行などのスキル習得の重要性は今後も変わらないでしょう。故障することもありますしね。

この研究はデバイスそのものより、歩行支援デバイスの現状の有効性を数字として提示したという点で興味深いものと言えるでしょう。


参考:New device could help visually impaired avoid obstacles, research suggests | Blindness and visual impairment | The Guardian


2021年7月22日木曜日

「夢見る指先」:フィリップ・クロデ氏講演会@世田谷美術館(2019年のお話)。

ぼんやりタイムラインを眺めていたら、触察本(触れて楽しむ絵本や書籍)を扱った講演会に関する横須賀美術館のアーカイブページが流れてきました。

そういえば私も2019年の夏、この講演を聞きに行ったことを思い出したのです。

フランスを拠点に触れる絵本などを制作している絵本工房「Les Doigts Qui Rêvent(夢見る指先)」。その創設者であるフィリップ・クロデ氏を招き、世田谷美術館で開催された講演会です。とても暑いひだったことを覚えています。


さて、講演では触察本の歴史に始まり、工房の制作活動に至るまで様々な話題を聞くことができました。印象的だったのは、目の見えない子供が触図からどのように情報を受け取っているのかというお話。視覚と触覚との認知メカニズムの違いが具体的な例を挙げながら解説され、普段無意識だった感覚が言語化される面白さがありました。

特に指先から得られる情報は「テクスチャ、形、大きさ、位置、方向、、関係性」という6つの要素から構成されるというお話は、触図を製作する側のみならず私のような視覚障害者としても意識しておくと触図に対する感覚も変わってくるような気がします。


そしてもう一つ、この講演会で強く印象に残っているのが、夢見る指先工房が製作した触察本の数々。講演が始まる前の短い時間でしたが、さまざまな工夫が凝らされた絵本に触れることができました。その中でも個人的にインパクトがあったのがこれ。


Le Petit Chaperon Rouge(赤頭巾ちゃん)

画像引用元:Les Doigts Qui Rêvent


「赤頭巾ちゃん」の触察本です。

この本の登場人物は、赤頭巾ちゃんはフワフワな赤い円、狼はざらっとした黒い円、といったように、具体的な姿としては描かれていません。

物語の全ての要素が抽象的な記号として解釈され、テクスチャが与えられ、ページに配置され、ストーリーが紡がれているのです。そしてさらにこの本には一切のテキスト(点字)もありません(凡例を除く)。驚くほどミニマルなデザインなのです。

でも不思議、単純な図形に触れているだけなのに赤頭巾ちゃんはキュートだし、狼は憎たらしい。おそらく複雑な形をトレースする工程が省ける分、想像力が自由に膨らみ物語に没入しやすいつくりとなっているのでしょう。

この本には他にも狼のお腹がジッパー付きの袋になっている場面など、触察本ならではの楽しい仕掛けが、ふんだんに盛り込まれています。


まるで前衛アート作品のようなこの本に触れていると、触察本とは印刷本の単なる代替品ではなく、触覚体験を追求したオリジナリティに溢れる表現であることに気がつきます。

この本に触れていた時間はせいぜい数分間程度だったでしょう。しかし指先には2年経った今でも、この本の強烈な印象が残っているのです。私が触察本や触図に興味を持つ一つのきっかけともなった体験でした。


余談ですが緑に囲まれた世田谷美術館は居心地の良い空間でした。床の感触がよかった。気候が良ければ砧公園を散策するもよし、二子玉川でお買い物するもよしですね。この日は帰りタクシーが掴まらず、猛暑のなかガイドさんと用賀の駅まで歩く羽目になりましたけど……。


参考:フランス さわる絵本出版社創立者 フィリップ・クロデ氏来日講演 | バリアフリー絵本



2021年7月19日月曜日

[iPhone] 画像認識AIを用いて触覚グラフィックスに音声アノテーションを加える2つのアプリ。カメラで指先を検出し触れている部分を音声で説明。

a finger with a marker on dwelling on a braille label on a tactile graphic

画像引用元:、Tactile Graphics Helper


写真やイラストといったグラフィカルな情報を視覚障害者へ伝達する手段として、これらの情報を触覚で感じられる凹凸で表現した「触図」が活用されてきました。しかし単純な凹凸に触れるだけでは確実かつ素早く情報を読み取るのは難しく、補足情報の必要性が訴えられてきました。

これまでも触図の中に点字を用いた説明がつけられることはありましたが、点字が読めない大多数の視覚障害者にとっては役に立ちません。


そこで触図の理解を向上させるアプローチの一つとして、触れた部分に応じ音声による説明を加える「音声アノテーション」と呼ばれる手法が研究されてきました。例えば動物の触図に触れながらそのパーツに関する説明を聞いたり、触地図上の地名や地形などの情報を聴覚から得ることができれば、触覚のみの場合と比べ学習のパフォーマンスが大きく高まります。

これを実現する手段として、触れている部分を晴眼者が口頭で説明する対面方式や、センサーや電子たぐを用いて触れた部分に対応した音声を再生する仕組みなどが用いられてきました。ただこれらは人材の確保や制作コストなどの面で手軽に利用できるソリューションではありません。さらに2020年以降のパンデミックにより対面によるサポートが停止され、リモート環境で触覚教育を実現する方法が模索されています。


そこで低コストかつ視覚障害者が単独で利用できる仕組みとして考えられているのが、画像認識AIを用いる手法です。簡単にいうと、触図に乗せた指先をAIが認識しその位置に応じた音声を再生させるという仕組みです。以前エントリーした「TouchVision」もその一種といえるでしょう。

そしてこの仕組みをiPhoneで利用できるようにしたのが「Tactile Images READER」と「Tactile Graphics Helper」です。

どちらのアプリも基本的な仕組みはほぼ同じ。

三脚や撮影台などにiPhoneを固定し、説明に用いるマーカーを仕込んだ専用の触図を全体がファインダーに入るように設置します。あとは人差し指で触図をなぞっていくと、画像認識AIが指先を検出。触図のマーカーの部分に指が触れたタイミングで説明が再生されます。

専用の触図を用意する必要はありますが、電子的な仕組みを埋め込む場合と比べコストは圧倒的に低く、セットアップさえ済ませれば視覚に障害があっても単独で利用できるというメリットがあります。


Tactile Images READERを開発したのは、ルーマニアに拠点をおくThe Urban Development Association。2010年から触覚グラフィックスによる視覚障害者の教育と芸術鑑賞に関する活動を行っています。

公式Web「Tactile Images Encyclopedia」では、Tactile Images READERに対応したオリジナルの触図を制作できる編集ツールを公開しているほか、サンプルや豊富な触図ライブラリからデータをダウンロードすることもできます。

触図そのものの提供は行っていませんが、編集・ダウンロードしたデータをもとに触図を制作するための、チュートリアルページも用意されています。

同社はこれら一連の仕組みを視覚障害者向けeラーニングプラットホームとして位置付けており、Covid-19により遠隔教育を呼びなくされている視覚に障害のある子供の境域にこのシステムを活用しようと考えているようです。また現在流通している製品の数分の1程度の価格で入手できる触図プリンターの開発も進めているとのことです。


一方、Tactile Graphics Helperを開発したSmith-Kettlewell眼科学研究所は、眼に関する疾病とその予防、および視覚リハビリテーション技術などを幅広く研究している米国の非営利団体です。

Tactile Graphics Helperを利用するためにはまず指先を識別するためのマーカーを用意する必要があります。公式Webから二次元コードをダウンロードし印刷、テープなどで指先に固定して利用します。

また対応する触図は現時点で元素周期表、二種類の地図、人体骨格図の四種類。これらの触図は公式Webから注文できるほか、動作体験向けに配布されているPDFファイルを印刷して利用することもできます。

現在アプリはベータ版。将来的には指先マーカーを廃止し、ユーザーが任意の触図に説明マーカーを加えられるようなツールを提供する予定とのことです。


筆者はプリンターを所持していないため実際にこれらのアプリを試すことはできませんでしたが、iPhoneと撮影台さえあれば触図に音声アノテーションが加えられるという手軽さには大きな魅力を感じました。

視覚障害者にとって触図は重要な情報入手手段である一方、技術革新がなかなか進んでいない分野でもあります。スマートフォンを活用した新しい触図体験はコストの面から見ても視覚障害者の情報入手手段として実現性が高く期待できるものになるような気がします。


英国National Railが導入した乗客支援アプリ「Passenger Assistance」。列車の乗降が困難な要支援者、鉄道事業社それぞれの利便性を向上。

an iPhone showing the Passenger ssistance app

画像引用元:National Rail


英国の鉄道事業者は日本と同様、障害があるもしくは怪我や恒例により移動が難しい乗客に向けて、スロープの準備や誘導といった乗降支援サービスを提供しています。これは移動の自由を保障するための重要なサービスですが一方で課題もありました。


英国の旅客鉄道ネットワーク、National Railでは、「Turn Up and Go」と呼ばれる連絡不要で受け付ける乗降支援サービスを利用できる場合もありますが、サポート内容や運営する鉄道会社によっては、原則として事前連絡による予約が推奨されています。

事前連絡を行う場合、決められた時間内に電話するか、電子メールもしくはWebフォームから乗車する24時間前までにリクエストを送信する必要があります。

しかしタイミングによってはリクエストした内容を変更したりキャンセルすることが難しく、必ずしも利用しやすい者ではありませんでした。これは駅スタッフ間の連絡が基本アナログで行われていたことが、要因の一つだったようです。


National Railはこのような問題を解決するため、スマートフォンから簡単にサポートをリクエストできるアプリ「Passenger Assistance」を導入しました。

サービスを依頼したい乗客は、このアプリを用いて24時間いつでも、いつどこからどこまで乗車したいのか、どのような支援が必要であるかをリクエストすることができ、変更やキャンセルもアプリから簡単に行うことができます。

またプロフィールを登録しておけば、連絡のたびに状況を説明する手間が省けるほか、写真を追加(任意)しておくことで駅に到着した際、駅スタッフが依頼者をスムーズに特定することができるようになります。

アプリの開発を担当したTransreportによると、電話によるリクエストでは依頼を完了するために平均30分ほど必要であったのに対し、Passenger Assistanceを使えば5分程度まで短縮することができるようになるとのことです。またアプリは音声読み上げ機能にも対応しており視覚障害者でもストレスなく利用できるよう設計されています。


一方でこのアプリの導入は、利用者だけでなく、鉄道会社にとっても利便性を大きく向上させるものとなりました。

利用者からのリクエストは乗降駅の端末にリアルタイムで共有されます。これによりサポート内容に応じたスムーズな人員配置ができるだけでなく、乗車プランが変更されたりキャンセルされた場合でも即座に対応可能になります。

結果的にリクエストを受付処理するための事務手続きが大幅に簡略化され、キャンセルや連絡の行き違いなどによる無駄な人員配置が軽減されるようになりました。


鉄道を利用する障害者の自由度が向上し、さらに事業者側の業務も効率化される。ICTによる支援技術が効果的に機能した一つの実例といえるでしょう。

Passenger Assistanceは英国在住者を対象に利用可能となっており、また従来からの電話や電子メールを用いたリクエストも引き続き利用できます。


日本の都市部では鉄道会社により多少の対応の違いはありますが、原則事前連絡なしで駅員による乗降サポートが利用できます。

私も初めての駅を利用する場合や乗り換えが複雑な時などに利用しているのですが、人手が少ない時間帯や降車駅と連絡がつかない場合など、タイムロスしてしまうこともあ離、なかなか到着時間が読めないというのが難点です。

もちろん鉄道会社もこのような問題は把握しており、社内的にICTを導入することでタイムロスを軽減する取り組みが行われています(東急電鉄JR東日本東京メトロなど)。それでも様々な要因で乗りたい電車に必ずしも乗れるわけではありません。

本来であれば自由なタイミングで健常者と同じサービスが受けられるというのが理想ですが、限られたリソースの中、確実かつスムーズに電車に乗りたい!というニーズに応えるためには、日本でもPassenger Assistanceのような、気軽に使える支援依頼予約の仕組みがあるとありがたいような気がします。


参考:Transreport app improves accessibility for disabled passengers (railway-technology.com)



2021年7月10日土曜日

米国。工事現場に設置されていた視覚障害者向け音声装置のメッセージが、何者かによって書き換えられるという事件が発生。

米国ミネアポリス、ダウンタウンの工事現場に設置されていた「この先通行止め」の看板。ここに視覚障害者へ通行できない旨を伝えるため併設されていた音声装置に何者かが卑猥なメッセージを上書きしたという、実にアレなニュースが報じられています。


設置されていたのは「ADA Audible Information Device Model 400ML」というシンプルなオーディオデバイス。最大60秒間のメッセージを録音でき、内蔵センサーにより15フィート(およそ4.6メートル)以内に人が近づくと自動的に音声が流れる仕組みになっています。

ただこのデバイス、その気になれば誰でも録音ボタンを押してメッセージを上書きできる仕様になっており、今回のトラブルはこれを悪用したものと考えられます。まあ卑猥な独り言をしてたらうっかり録音ボタンを押しちゃった、っていう可能性もなくもありませんが、それはそれでいろいろ問題はありそうです。

結局早朝にこの悪戯が発見され、当局が対応するまでの数時間にわたり、この看板の前を通った人々や自転車にたいし、卑猥なメッセージが浴びせ続けられたとのことです。実にとほほです。


いずれにせよえらく迷惑極まりないお話です。

場合によっては視覚障害者を危険に晒すことにもなりますし、メッセージの内容次第では不特定多数の人々に精神的なダメージを与えかねません。障害者を支援するためのデバイスが逆に人々を攻撃するような事態になっては目も当てられません。

また今回のような悪意のある悪戯だけでなく子供が興味本位で録音ボタンを押してしまう可能性もあります。このような装置を導入する際は録音機能をロックできる製品を選ぶか設置場所を工夫するなどの対処が必要でしょう。装置が撤去されてしまうと困るのは障害者ですからね。


ソース記事では実際のメッセージも掲載されていますが、非常にセンシティブな内容なので聞かない方がいいと思いますよ。振りじゃないですよ。

それにしても落書きくらいならまだしも、声でこういう悪戯をしてしまうという発想そのものに何か薄気味悪いものを感じてしまいます。

ネット記事にもされちゃって、すぐにバレそうなもんですが……。


参考:Listen: 'Trail Closed' sign plays X-rated message, to shock of downtown pedestrians - Bring Me The News


2021年7月7日水曜日

視覚に障害のある子供たちのための新しい触覚プロトコル「ASFG」。2本指のジェスチャーで立体モデル上を探索。

illustrations engageant des simulations format portrait

画像引用元:Mirage News


視覚障害者が写真やイラストなどのグラフィカルな情報を得る手段として用いられるのが「触図」です。触図は一般的に、元となる素材の形(輪郭)をそのままエンボス加工して制作され、読者はその凹凸を指先でなぞりながら頭の中に形をイメージすることでその内容を理解します。もしくは理解を試みます。

私もこれまで様々な触図を体験してきましたが、事前に情報が与えられていない状態でその内容を理解するのは非常に難しいというのが率直な印象です。中と失明者の私でもそうなのですから、視覚的な経験の無い、もしくは浅い子供たちにとっては触図から正確な情報を得るにはかなりの訓練と経験が必要でしょう。


触覚は視覚と比較し、テクスチャや高低差を認識することは得意でも、空間的な情報を認知することは難しいと言われています。

これまでもこの感覚のギャップを埋め触覚によるエクスペリエンスを向上させるため、情報提供を工夫したり、異なる触感の素材を組み合わせる、触れる場所に応じてサウンドを再生するなど、様々なインタラクションに関する研究が行われてきました。


スイス、ジュネーブ大学(UNIGE)とフランス、リヨン第2大学の研究チームは、視覚に障害のある子供が視覚的なイメージをより早く、正確に理解するための新しい方法を考案しました。

ASFG(Action Simulations by Finger Gestures)と名づけられたこの手法は立体的に構築された触覚モデルの上を、人差し指と中指を「脚」に見立て、「歩く」「走る」「ジャンプする」といったアクションで探索します。

視覚障害者にとって脚による運動は外部の環境と対話するための重要な手段です。このアクションを2本の指でシミュレーションすることで立体モデルの触覚とこれまでの運動によって得られた空間認識の経験を結びつけ、理解度を高めようというのがASFGの基本的な考え方です。


実験では階段や滑り台など7つの立体モデルと、同じモチーフの触図を用意し、視覚に障害のある子供と晴眼の子供に対し、従来の触図とASFGを用いた立体モデルの探索との間で理解度を比較しました。

その結果触図を指先で触れるよりも、立体モデルをASFGを用いて探索する方が理解度が高く認識に必要な時間も短いことがわかりました。またASFGによる探索では視覚に障害のある子供と晴眼の子供の間には大きな差は見られませんでした。

研究チームはこの実験結果を、視覚の有無にかかわらず運動によって構築された空間認知能力が触覚を補った可能性を示していると考えています。そしてASFGという手法は視覚に障害のある子供たちのイメージ識別能力を改善する新しい触覚教材のデザインの可能性を示唆していると述べています。


触覚モデルの上を2本指でヨチヨチ探索するという動作は子供たちにとっては手遊びのように楽しいものですし、目の見える、見えないにかかわらず同じ経験を共有できるという意味ではインクルーシブな教材を開発する上でのヒントとなるでしょう。

また従来のエンボス加工を用いる触図についても、ASFGに最適化したストーリーせいのある工夫を施すことにより理解度が向上する可能性も考えられます。

盲目の大人としても、例えば触地図などをこの方法で探索すると理解度が向上するかもしれません。今度駅にいったら試してみようと思います。まあ白杖を抱えたおじさんが駅でヨチヨチやってる姿が周りにどう見られるかは、未知数ですけどね。


参考:Exploring 3D miniatures with action simulations by finger gestures: Study of a new embodied design for blind and sighted children



2021年7月4日日曜日

欧州で2022年からケロッグの全てのシリアル製品にnavilensのコードが導入される。視覚障害者の食料購入を便利に。

cereal boxes on shelves

画像引用元:BBC Newsround


2021年7月1日、大手食品メーカー、ケロッグは、navilensテクノロジーの二次元コードであるddTagsを、同社がヨーロッパで販売する全てのシリアル製品のパッケージへ導入し、視覚に障害のある顧客のアクセシビリティ向上を目指す取り組みを発表しました。

同社は2020年10月、英国の支援団体RNIBの協力を得て「Coco Pops」のパッケージにnavilensコードを導入する実証実験を行いました。今回のパッケージ変更はこの実験から得られたフィードバックをもとに、これを幅広い製品と地域に拡大するものです。

2022年1月の「Special K」を皮切りに、順次スーパーマーケットなどの店頭にnavilensコードを印刷したパッケージが並ぶ予定となっています。


参考記事:スペイン発。視覚障害者をカラフルに誘導する「navilens」。


視覚に障害のある買い物客は、navilensアプリを起動したスマートフォンを用い、最大3メートルの距離から商品のパッケージをカメラでとらえ、成分やアレルギー情報などを取得し音声で読み上げたり拡大して読むことができるようになります。

視覚障害者が商品の情報を得る手段としてこれまでもQRコードやバーコードをスキャンする方法がありました。ただこれらの方法はコードが印刷されている場所を正確に特定しなければならず使い勝手は良くありません。

離れた場所や斜めからコードをスキャンできるnavilensなら、商品棚のある方向にスマホをかざすだけでコードを見つけ、陳列している場所まで誘導することもできます。

ソーシャルディスタンシングが叫ばれる中、店員や商品との不必要な接触を最小限に抑えるだけでなく、同時に複数のコードをスキャンすることで視覚障害者が目当ての商品を探しやすくな理、買い物の時間を短縮できるというメリットも考えられます。

特に商品棚までは自力でたどり着くことはできても、パッケージの文字が読めない、ロービジョンの人々にとってはこのパッケージ変更は利便性を大きく向上させるものになるでしょう。また細かい文字で書かれた成分表が読みにくい高齢者にとっても有益かもしれません。


navilensはこれまでもスペインや米国の公共交通機関、美術館などの施設を中心に導入が進められてきましたが、大々的に食品のパッケージへ採用されるのはこれが初めてとのことです。従来と大きく異なるのは、一般に向けnavilensコードの露出が増えるということでしょう。ケロッグのシリアルを置いていない食料品店は少数はでしょうからね。これまでとは比較にならないほど多くの人々の目にこのカラフルなコードが止まるはずです。露出が高まることでnavilensへの関心が高まり、他の食品メーカーへの波及効果にも期待できるかもしれません。利用者の立場としては、できるだけ多くの商品が識別できなければ意味がありません。視覚障害者が食べるのはケロッグのシリアルだけではありませんからね。

今回の取り組みは食品に対するアクセシビリティ向上への第一歩と考えるべきでしょう。そのような意味で、大手メーカーであるケロッグの影響力には注目したいところです。それと同時に、このようなサービスを持続させるためには周知活動やスマートフォンの普及など、視覚障害者側にもやれることは多くあるようにも思います。


私が店員さんのサポートでお買い物をする場合、特に忙しい時間帯などでは並んでいる商品を端から端まで説明してもらうのは気がひけてしまいます。結局自分が思いつく範囲で「○○みたいなのありますか」と商品を探してもらうことが多いんですよね。でもそれだと新しい商品への出会いがなく至極つまらないお買い物になりがちです。スマートフォンをかざして並んでいる商品が一覧できれば、思いがけない商品を見つけられるかもしれません。

近年ではパンデミックの影響もあり、無人店舗やセルフレジの導入など食料品店の環境が大きく変わりつつあります。しかしその一方、新しい技術にアクセスできず疎外されている人々から懸念の声も挙がっています。navilensに限らず、様々なアプローチから食料品店全体のアクセシビリティ向上を進めて欲しいものです。

誰もが商品を自由に選べて買える。そんな未来、いつかきて欲しいものですね。


参考:The codes helping visually-impaired people shop - BBC News

参考:Kellogg integrates the world's first technology for the visually impaired into cereal packaging (efanews.eu)



支援技術関連記事まとめ(2022年10月)

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...