2022年12月1日木曜日

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。

※ダウンロードファイルはHTML形式です。ブラウザで開いてください。

※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てください。


ダウンロード:海外記事国内記事


お知らせ:


さて、なんやかんや5年ほど続いてきたBloggerでのニュースまとめ配布ですが、今回をもっておやすみすることにしました。11月までとやや中途半端ですが、2022年のアーカイブ(Zipアーカイブ、HTML版のみ)はこちらからダウンロードできます。

今後はnoteに場を移し、同じようなものを続けていきますので、よろしければどうぞ。

Noteのページはこちら→at-news

更新ペースは週一回程度を予定。まだNoteの操作に慣れてないので読みにくいとは思いますがご容赦ください。

こちらのブログもぼちぼちエントリーしていきますので引き続きよろしくお願いいたします。


2022年8月27日土曜日

[メモ] 全盲的「彫刻に触れる展覧会」見学記@神奈川県立近代美術館・鎌倉別館

オーギュスト・ロダン「花子のマスク」

オーギュスト・ロダン「花子のマスク」画像引用元


2022年6月11日から9月4日まで、神奈川県立近代美術館・鎌倉別館において開催された特別展「これってさわれるのかな?―彫刻に触れる展覧会」へ行ってきました。

これは、同館の収蔵品から選ばれた24点の作品に実際に触れて鑑賞することができるというコンセプトの展覧会です。展示されている作品は全てレプリカではなくオリジナル。つまり作者が意図したそのままの状態の作品に触れられるのです。教科書に乗っているような有名な作品こそありませんが、これだけの数のアートに(文字通り)触れられる、めったにない貴重な機会ではないかと思います。

鑑賞にあたっては、受付で配布される使い捨ての手袋(ゴムかシリコン?)の装着が求められます。これは作品の保護に加えて感染症対策の意味もあるようです。最初かなりの密着度にややひるみましたがすぐに違和感なく触察することができました。


さて視覚だけによる鑑賞であれば、24という作品数でもさほど時間はかからないのではと思いますでしょ。しかし全盲の私が触察するとなると話は違ってきます。

一般的に視覚障害者が触察によって作品を理解するためには1作品あたり15から20分程度の時間が必要と言われています。このセオリーに従うとなると今回の展覧会をコンプリートするためには8時間ほど掛かる計算となります。

これは齢50をすぎた私には、ダメージが大きい。なので今回は作品の詳細な解釈にはあまり入り込まず、触察の経験を純粋に楽しむという方針で臨むことにしました。それでも2時間ほど触察し続けてグッタリしましたが。


展示は基本的に古い作品から新しい作品へ流れていく構成になっています。人物を写実的に表現したブロンズ像から始まり、次第に動きのあるポーズをとっている作品、さらにはシュールな造形の彫刻、後半では幾何学的な形や様々な素材が剥き出しになった現代アート的な抽象作品へ行き着きます(ここでは個別の作品については触れませんが公式Webで出展作品のリストが公開されていますのでそちらを参照してください)。

なお鑑賞中は、同行のガイドさんに対しあえて言葉による説明は私が求めるまでは行わないようお願いしたため、触れるまではどのような素材、形状を持った作品であるのかわからない(ヤミナベルール)という、謎のゲーム性も加えられました。

正直なところ、最初のうちは似たような人物のブロンズ像が続くため、やや短調さを感じていたのですが、徐々にモチーフや素材に変化が現れることで面白くなってきました。これは鑑賞を続けていく中で触察の感覚が掴めてきた、という要因もあるのかもしれません。

前半はほとんどがブロンズ製でしたが年代が新しくなるにつれ金属や大理石、木材など多様な素材が用いられるようになり、触覚から手触りや温度の違いが伝わってきます。

作品の形もリアルな人体から少しずつデフォルメが進み、最終的には何を表しているのかよくわからないけど触ると気持ちがいいみたいな境地へ到達。視覚を使わずとも彫刻のダイナミックな変化の一端を堪能できた、ような気がします。


また作品のほとんどは立体的な彫刻でしたが、平面的なモチーフを浮き彫りにした、いわゆるレリーフ作品もいくつか展示されていました。立体とレリーフを同じタイミングで鑑賞できるというのも珍しいように思うのですが、記憶を辿って見るとレリーフ作品の印象はほとんど残っていないのです。

触察で美術作品を理解する場合、構造的に破綻の少ない立体に比べると、様々な視覚的技法が駆使されている平面作品の難易度は段違いに高いとも言われています。改めて触図による触知の難しさを認識できたのも大きな学びの一つでした。

あとこれは彫刻ではないのですが「サウンド・チューブ」(吉村弘・作)という、水の音を楽しむオブジェの展示には心を掴まれました。筒状の本体を傾けると中に入っている水が動きさまざまな音を奏でるというもので、なぜか取り憑かれたように遊んでしまいました。調べたらミュージアムショップでレプリカが販売されているらしいのですが現在は品切れ中のようです。


今回はかなり急ぎ足での鑑賞であったため、作品と作者、タイトルがいまひとつ結びついてはいないのですが、それでもいくつかの作品は触覚を通じ、私の記憶に強烈な印象を残しています。見えていた頃を含め、ここまで大量の彫刻を触りまくったのも初めてのことでしたし、なんとなく触知スキルもレベルアップしたような気がします。

このエントリーを書いている段階で会期も残り少なくなっているのですが、触れるアート鑑賞に興味があるのであればかなり楽しめる展覧会であると思いました。すぐ近くには鶴岡八幡もあり鎌倉観光とセットで訪問するのも楽しいのではないでしょうか。予約は不要ですが特に視覚障害者を対象にした展覧会ではないため、サポートが必要な場合は事前の問い合わせが安心かもしれません。


原則、作品を損傷することなく後世に伝えることが求められる美術館としては、不特定多数の訪問者が作品に触れるという展覧会の開催は大きな決断であったことは想像に難くありません。しかし私のような視覚障害者にとっては触れなければ不可能だった経験が得られたという意味で、貴重な展覧会であったと思います。また視覚障害の有無に関係なく、アートに触れるという行為には視覚だけでは感じられない作者の意志のようなものを受け取れるような気もしました。

今後も作品に触れられる機会が増えて欲しいと切望する一方で、触れる立場としても触察の技術とマナーの啓発が求められてくるのではないかとも思ったのでした。

触れる彫刻展としては他にも、東京・高田馬場の「ふれる博物館」では第10回企画展「手でみる彫刻」が2022年9月17日まで開催されています(予約制)。他にも常設の施設もいくつかあります。機会があれば彫刻に触れに出かけるのも面白いのではないでしょうか。


ここからは余計なお話、中途全盲の私の記憶について。

このエントリーを書くにあたり、展覧会の記憶をたぐって見たのですが、覚えている作品はまず視覚的なイメージとしてき置くから引き出され、その後に手触りなどの触覚的な記憶が追いかけてくることに気がついたのです。

作品に限らず、美術館の内装や途中で立ち寄ったお店の様子も、まずイメージとして脳内に立ち上がります。一度もこの目で見たことはないのにもかかわらず、です。

この脳内のイメージは、これまでの視覚的な記憶から生成されたパッチワークのようなものと考えられ、実際の風景とは完全にかけ離れているはず。ですが視力を失っても視覚的な情報処理が継続されているというのは自分のことながら興味深い現象です。

これは視力を失った年齢、つまり視覚的な記憶の量と関係があるのですよと何かで読んだ覚えがあります。そう考えてみると、視覚障害者の美術観賞も個人の経験と記憶によってアプローチが変わってくるのかもしれません。ユニバーサル・ミュージアムの奥の深さを改めて感じた気づきでありました。おしまい。


2022年8月7日日曜日

[メモ] 全盲的:日本科学未来館見学記(2022-7-10)

ランチでいただいた「NEXTメンチカツサンド」の写真です。代替ミートで作られたメンチカツと千切りキャベツがパンに挟まれてお皿の上に鎮座しています。


※このエントリーは「AIスーツケース体験記@日本科学未来館」の続きです。


AIスーツケース体験会も午前中のうちに無事終了。せっかくなので日本科学未来館の中を一通りうろうろしてみることにしました。

この日は日曜日ということもあり、館内は大勢のチビッ子たちで大賑わい。圧倒的な場違い感の中で全盲のおじさんがどこまで楽しめるものなのか。気がついた点など記憶の限りメモして見ます。


まずは3Fと5Fにある常設展示エリアを見学。

一部の常設展示では主に視覚障害者向けに「触れられる展示」が用意されているとのことで、未来館のサイエンスコミュニケーターの方に案内していただきました。私がこの日に体験できたものは以下の通りです。


  • (5F)子宮内の胎児が成長する過程を原寸大のレリーフモデルに触れて学べる展示。これはAIスーツケース体験会のコースに含まれていました。
  • (3F)細菌やウィルスの大きさを触れて比較できるレリーフ展示。
  • (3F)さまざまな細菌の形を確認できる3dモデル。
  • (3F)人間の臓器に存在する細菌の分布を表現した点図触覚グラフ。


いずれも視覚情報を触図や3Dモデルとして表現したもので、視覚障害者にとっては馴染み深いフォーマットです。子供や車椅子ユーザーなどでも触れやすいよう、少し低い位置に展示されているという配慮もありました。

点字などテキストによる解説は用意されておらず、コミュニケーターの方から説明を受けながら触れるという見学スタイルです。ちなみに3Fで触れられた細菌の3Dモデルですが、ふわふわの可愛いマスコットとして1Fミュージアムショップで販売されているので、最近、細菌が気になる人は要チェック。


全体から見れば視覚障害者向けの触れられる展示はまだごく一部です。ただ他の展示が全く楽しめないかといえばさにあらず、他にも結構いろいろ面白いものがありました。

例えば国際宇宙ステーションを模した展示では反響音で展示ブースの独特の狭さを感じたり、無重力空間ならではの場所、例えば低い天井などについている手すりに触れられたりします。また3Fのとある場所では、空調の効いた空間の中から突然土の匂いがふわりと感じられました。この不意打ち感、これはどうやら自然界に存在する細菌についての展示だったようです。土の感触も確かめられました。

触図や模型による情報提供は重要ですしさらなる充実を望みますが、上記のような手で触れたり音声による説明以外の感覚(空間の響き、床の完食、匂いや温度など)で体験できる仕掛けが充実すれば、視覚障害の有無にかかわらず楽しめるのではと思ったりしました。


他にもデモしているロボット君に触れさせてもらったり、ネットワークの仕組みを表現したピタゴラ装置的な展示から発せられる音に耳を傾けるなど、あちらこちらに興味をそそるものがありました。ガラス越しの展示も少なくはありませんが、触れたり音が出る仕掛けも多いため、見えなくても比較的退屈しません。

ただやはり体系的に展示内容を理解しようとすると補足説明は必要で、視覚障害者向けにポイントを抑えたツアーのようなものがあると良いのになとも思いました。


ひとつ残念というかもったいないなと感じたのがアプリを使った音声ガイドについて。

未来館の各エリアでは、公式アプリ「Miraikanノート」を用いた音声ガイドが提供されています。展示コーナーにあるマーカーにアプリをインストールしたスマートフォンをかざすと音声ガイドが流れる仕組みなのですが、このアプリ、ボタンに的確なラベルが付けられておらずスクリーンリーダーでは使いにくいのです。

この件をアクセシビリティ・ラボの方へお伝えしたところ、どうもこのアプリ、現在はメンテされていないようで、代わりとなる新しいアプリを鋭意検討中とのことでした。

またアプリといえば未来館では「インクルーシブ・ナビ」も利用することができます。これは目的地を指定すると利用者の状況に応じた道案内を提供してくれる屋内ナビゲーションアプリ。現時点で視覚障害者モードには対応していないため私には使えませんでしたが、車椅子ユーザーやベビーカー利用者には便利かもしれません。

ちなみにインクルーシブ・ナビについては2019年末に書いた私のレポート

がありますのでご参考まで。ただし仕様変更などあるかもしれませんので、その辺りあしからずです。


見学の合間には、7Fの未来館キッチンへ突撃。

どうせならそれっぽいものをとオーダーしたのは「NEXTメンチカツサンド」。原材料に大豆ミートなど植物性の食材のみを使っているという、この日の一押しメニューです。

ちなみに未来館キッチンのシステムは基本アナログ的。印刷されたメニューを見て有人カウンターからオーダーすると無線端末が渡されます(ここは少しだけハイテク)。あとは端末に通知が届いたらウケトリカウンターから食事をピックアップするという流れです。飲み物もセルフサーブなので全盲だけだとちょっと苦戦するかもしれません。食べ物の持ち込みは可能なので、お弁当持参の方が無難かも?

さて話は戻りNEXTメンチカツサンド、率直に申し上げれば「代替肉だなあ」というよりは「大豆ミートだなあ」という感想です。おいしくなくはないのですが独特のクセが微妙にあり、ちょっと濃いめのソースでなにかを突破しようとしている意志を感じました。

ここでふと代替食品と視覚情報の関係について思いを巡らせて見ます。例えば今回のような代替肉の場合、みためがお肉に近ければ近いほど味覚に対してポジティブな影響があるのではないかと思うわけです。 そう考えると代替食品って、外観から影響を受けにくい視覚障害者にはハードルが高いのではないか……直感として視覚と味覚の間には密接な関係があるような気がします。


さて全盲の視覚障害者のひとりとして日本科学未来館は、若干物足りなさを感じつつも楽しめる博物館でした。

少なくとも見えなくなってから訪問した場所の中では体験できるコンテンツも多く、わくわくする独特な雰囲気も良かった。何より全盲の浅川氏が館長というのは気後れせずに訪問できた要因の一つであるのは間違い無いでしょう。ただその分ハードルが上がっていたため細かいところが気になったりもしたわけですが。

個人的に自然科学系の博物館には、単純に展示物をみるというだけでなく実際に経験して学習する楽しみを求めているので、今後のアクセシブルな展示の充実に期待したいところです。特に映像コンテンツにはぜひ音声解説をつけて欲しいなあ。

また展示をアクセシブルにするだけではなく、むしろそれを実現するためのテクノロジーそのものを目的に障害者が集まる、最新支援技術のショーケース的な場所になるのも面白いのではないかと妄想したりもしたのでした。


ただ現状では全盲が一人でふらっと遊びに行くためには交通アクセスを含めまだ障壁が多いようにも感じます。単独で得られる情報がちょっと少ない。見える人と一緒に行った方が安心だし楽しめるかもしれません。

現在日本科学未来館ではアクセシビリティの向上について継続的に取り組まれているとのこと。今後は展示やイベントにおけるアクセシビリティはもちろんのことですが、同時にアクセスの改善やWebなどを通じた情報提供など、包括的なバリアフリー環境の整備が望まれます。


ともかく日本科学未来館は全盲のおじさんの記憶にさまざまな印象を残した良い施設でした。やっぱりミュージアムは楽しいなというのが最終的な感想です。展示のアップデートや興味のあるイベントがあればまた訪問したいと思います。

それにしても、ゆりかもめにノルト、なぜか一気にピクニック気分になりますね。ちょっとした大人の遠足的な、夏の1日でした。

2022年7月28日木曜日

[メモ] AIスーツケース体験記@日本科学未来館(2022-7-10)

おのぼりさん気分で未来館7Fからお台場を撮影した写真、のはず。レインボーブリッジとかフジテレビ社屋とかそれっぽい風景が写っているらしいです。


去る2022年7月8日から10日までの3日間、東京・お台場にある日本科学未来館において「ミライキャンフェス」が開催され、その中で実施された「AIスーツケース体験会」へ参加してきました。

せっかくなので中途全盲中年の視点から感想などメモしておきます。やや記憶が曖昧かつ不正確な部分もあるかと思いますがご容赦ください。


AIスーツケースは自律走行するスーツケース型ロボットを用いて視覚障害者を誘導しつつ、スマートフォンやウェアラブルデバイスと合わせ様々な情報を提供する、統合ナビゲーションシステムです。

この技術の原型ともいえる、現日本科学未来館長・浅川智恵子氏率いる米カーネギーメロン大学の研究チームによる2019年の実証実験については、このブログでも書きました

その後スーツケースへ自律走行技術を採用した「CaBot(Carry-on roBot)」を経て、現在は2020年に発足した次世代移動支援技術開発コンソーシアムにより実用化へ向け開発が進められています。


さて日本科学未来館の5Fに設けられた未来館アクセシビリティラボで開催された体験会では、まず3Dプリンターで制作された未来館の立体モデルに触れる体験を行いました。独特な構造を持つ未来館の建築を触察しつつ、AIスーツケース体験で巡るルートを確認します。

この模型には重箱のようにフロアを分割させるギミックが仕込まれており、パカッと屋根を持ち上げるとフロアごとの3Dモデルが出現。これをiPadの上に乗せることでタッチによる音声説明を再生させるという、多感覚的な仕掛けも試すことができました。

視覚障害者にとって触察は重要な情報伝達手段のひとつではあるのですが、ただ触れただけではそれが何であるかすぐに理解することは困難です。未来館では触察の際、同時にどのような情報提供が効果的であるのかに関しても研究が進められているようです。


触察タイムが終わると、続いてAIスーツケース体験へ進みます。会場である常設展示エリアまで誘導していただき、いよいよご対面と相成りました。

まず確認したかったのが外観。手で触れて形を確かめさせていただくと、それは「想像以上にスーツケース」でした。普通にハンドルを伸ばして縦置きしたスーツケースそのものという佇まいです。

資料によるとケース部分は英国の老舗スーツケースメーカー、グローブ・トロッター社の「007 リミテッドエディション キャリーオン カーボン」を採用しているとのこと。ケース本体の寸法は幅390mm x 高さ550mm x 奥行き180mm。機内へ持ち込めるサイズのスーツケースを想像するとおおよその姿をイメージできるのではと思います。

一般的なスーツケースの見た目と大きく異なるのは、ケースの上面に2つのセンサーが設置されているという点です。まず人物認識に用いられる3Dカメラが収められたお弁当箱くらいのボックスが置かれ、その上に障害物検知および位置推定などに用いられる全方位3D Lidarセンサー(直径10cm程度の円柱体)が重ねて乗せられています。


また外観とともに「AIスーツケースがどのように動くのか?」という点も疑問でした。

結論から言いますと「直立したまま横方向へ動く」が正解。

スーツケースはハンドルが据え付けられている方向から見て、右方向へ進むので、左手でハンドルを握り、進行方向へ体を向けた状態がユーザーの基本的なポジションとなります。

ハンドルの上面には親指で操作するAIスーツケースを制御するための物理ボタン群、手のひらが当たる部分の左右側面には曲がる方向を通知する振動素子、底面にはハンドルを握っているかを検知するためのタッチセンサーが備えられています。ちなみにハンドルは固定されており収納することはできないようです。

この日は走行を開始するのに用いるスタートボタンと速度を調節する2つのボタンのみを使うよう説明を受けました。あと絶対に持ち上げないでとも言われました。


今回の体験では未来館5Fの常設展示エリアの入り口をスタートし、いくつかの展示を経由しつつ元の場所へ戻ってくるという、あらかじめ固定されたルートを巡ります。いわばAIスーツケースによるミュージアム・ツアーといったところでしょうか。

ウェアラブルデバイスやスマートフォンは用いず、AIスーツケースから送られる音声アナウンスを聞くためのネックスピーカーのみを装着。右手には念のため白杖を持ちました。


準備が整ったところでスタートボタンを押すと、AIスーツケースが動き始めます。

ゆっくりソローリ動くと言う感じではなく、ハンドルを通じて結構クイックな加速と力強い手応えが伝わってきます。動作は大きくガタつくこともなく非常に安定かつスムーズ。これはスーツケースの重量とホイールのグリップ力によるものと思われます。

体を持っていかれるほどではありませんが、想像していたよりもひっぱる力を感じました。ただハンドルからの力に対し無理に抵抗せずついていくことはさほど難しくはなく、結構自然な感じ(空港的な場所を優雅に移動する旅人気分)で歩くことができたと思います。端から見ていてどうであったかは知る由もありませんが……体感として。


デフォルトでのスピードはかなりゆっくり目。ハンドルのボタンで調節可能ですが、最高速度でも「気持ち早歩き」くらいでした。体験会向けにリミッターがかけられているのかもしれません。なおAIスーツケースはハンドルから手を離すとその場でピタリと停止するため、置いてけぼりを食らう心配はありません。

しばらく導かられるままついていくと左手に軽い振動を感じ、その後ゆっくりとカーブするのが分かります。これがなかなか絶妙なタイミングでした。また進行方向に何かしらの障害物が見つかると走行を停止します。危険が無いことを確認すると自動的に動き始めるのですが、混雑した場所では固まってしまうのではと思ったりしました。

なおAIスーツケースは基本的に段差を乗り越えることはできませんが、点字ブロック程度の凹凸であれば問題なく走行できるとのことです。


さて経由ポイントへ到着するとAIスーツケースが停止し、ネックスピーカーから目の前の展示に関する音声ガイドが流れます。このときAIスーツケースがその場でくるっと展示ブースの方向へ向くという芸の細かさも披露してくれました。賢い。

今回の体験中、ルートを外れたり到着地点を間違うと言った様子はなく、ナビゲーションの精度はかなり高いという印象です。

ここでスタートボタンを押すと、AIスーツケースは次の経由ポイントへ向けて動き始めます(この時展示ブースからスーツケースに戻るのにちょっと迷ったのは内緒)。

これを数回繰り返し、スタート地点へ戻ればゴール。時間にして数分間でしたが大きなトラブルもなく今回の体験は無事終了しました


ちなみにAIスーツケースのフィーリングについては体験した当事者から盲導犬に近い、または手引き誘導に近いという2つの意見が挙がっているようです。個人的にはハンドルから感じられるフィードバックは(私の数少ない)盲導犬体験に近いもののように思えました。これは動きのクイックさや重心の低さなどからきているのかもしれません。

常に緊張感を強いられるスマートフォンアプリやウェアラブルデバイスなどによるナビゲーションと比較すると、導かれるまま歩くだけで目的地につけると言うのは非常にストレスフリー。何も考えず余裕を持って単独移動できるのは、ロボット誘導ならではの経験ではないかと思います。短い時間でしたがスーツケースそのものの大きさや重量感からは、なぜか頼もしさのような感情すら覚えました笑。

ただ今回は固定されたルートを回るだけという限定された体験であったため、歩行支援というよりは「スーツケースに連れ回されている」という感じが若干醸し出されていたような気がしました。

歩行を支援するデバイスというよりも、目的地まで運んでくれる交通手段に近いような感覚でしょうか。自動運転車の技術も使われてますしね。これはこれでラクではあるのですが、せっかくならもっと自由に歩き回れたらさらに楽しいのではと思いました。

今後ユーザーの指示でスーツケースをコントロールする体験ができるようになれば、この印象は変わってくるかもしれません。この安定した運動性能のまま「自分の意志で移動している」感覚が得られれば、これまで経験したことのない自立性を感じられるのではないかと思うのですがどうでしょうか。


振り返りますとこのブログでも視覚障害者を誘導する様々なロボット技術について紹介してきました(白杖型人間型犬型ドローン型)。ただ書いておいてアレなのですが、いずれも興味深いけれど、実現性は……というのが率直な感想だったりします。

AIスーツケースは大手技術メーカーがこぞって開発に取り組んでいるということもあり、実用化へ向けた熱意のようなものを感じます。そして何より視覚障害当事者である浅川氏がこのプロジェクトを率いているという点は「Nothing About Us Without Us」の原則からも重要であるように思います。

正直なところ今回の体験の範囲ではAIスーツケースが本当に視覚障害者の役に立つものであるのか、判断するのは難しいと思う一方、ロボットを用いた誘導がここまで実現していることには素直にびっくりしたのも事実。実用化にはまだまだ超えなければならないハードルは多いようですが、期待を持ちつつ今後の開発の行方を見届けてみたいと思いました。

一般向けの体験会はこれからも開かれるとのことですので、チャンスがあればぜひ体験をおすすめします。普通に未来的アトラクション感覚で面白いですよ。当事者からどんどんフィードバックして未来のモビリティを実現させましょう。


最後に、体験の後にあーだこーだ質問していたら、このおじさん変わってると思われたのでしょうか……AIスーツケースの中身をちょっとだけ触らせていただきました。

ぱかりとケースの蓋が開けられると、その中にはメインの処理を担当するノートPC(UbuntuをベースにカスタムROSが動作)、センサーとインターフェイス類を制御するArduino(多分…?)、そして一際存在感を主張するバッテリーなどが所狭しと詰め込まれていました。

なるほど、あの安定感はこのバッテリー由来なのかと妙に納得。モーターやホイールといった駆動部分にはロボット向けの部品が使われているとのことで、ああ見た目は高級スーツケースでもこれは立派なロボットなのだな、と改めて思ったのでした。


さてと、情報が多かったのでダラダラな文章にな理ました。

とにかく今回は貴重な体験ができ、大変面白かったです。

日本科学未来館の関係者の皆様、ありがとうございました。


2022年4月11日月曜日

Twitter、画像の代替テキストを可視化する「Altバッジ」機能を公開。

米Twitterは現地時間2022年4月7日、ツイートに添付されたイメージに代替テキスト(画像の説明文)が含まれていることを視覚的に示す「Altバッジ」と、スクリーンリーダーユーザー以外でもツイート済み代替テキストを確認可能とするアクセシビリティ機能を提供開始しました。

これは2022年3月から一部のユーザーを対象にテストされてきた機能で、これを全てのユーザーへ向け公開したものです。


代替テキスト(Alt)もしくは画像説明文とも呼ばれるこの機能は、イメージを視覚的に確認することができないユーザーなどへ向け、画像に含まれる物体や人物の外観、画像化されたテキストや数値、グラフの形状、色彩などを説明したテキストをイメージのタグとして埋め込むことを主な目的として開発されているものです

スクリーンリーダーでAltが埋め込まれたイメージへアクセスすると、合成音声や点字ディスプレイを通じて画像の説明文を受け取ることができます。代替テキストと聞くと視覚障害者のためのものと考えがちですが、むしろこれは正確な情報をより多くのユーザーへ伝える、発信者のためのツールという味方もできるのです。

関連するTwitterヘルプへのリンクを以下にまとめておきます。



なおこの新機能についてITmedia NEWSが報じています。

Twitter、ツイートの画像に代替テキストを追加する機能 - ITmedia NEWS

ただこの記事タイトルでは代替テキスト機能そのものが新しく実装されたと誤解を産むような表現になっており、代替テキストの目的についても若干あやふやな表現となっています。改めてここでTwitterにおける画像のアクセシビリティの歩みを振り返っておきましょう。なおリンク先は当ブログの過去記事です。



Twitterは2020年9月に専門のアクセシビリティチームを設置しており、Altバッジの開発はTwitter Accessibilityチームの手によるものと思われます。


さてこれまでは一度ツイートしてしまうとスクリーンリーダーを使わなければAltの内容を確認することは不可能でした。今回の仕様変更でツイートされた画像横の「Alt」もしくは「代替」バッジでAltの存在を即座に判別し、これをタップすることでAltの内容を視覚的に確認することができるようにな離ました。

Altが可視化されることでこれまでより多くのユーザーへこの機能が認知されることが期待されています。しかしその一方、代替テキスト本来の目的から外れた活用法が広がりつつあり、すでに議論の的となっているようです。それがさらに代替テキストの認知度を上げているというのもちょっと皮肉な話ですね。

ただ個人的には代替テキストの意義を踏まえた上でTPOに合わせつつ、工夫して使う分にはさほど問題ではないように思います。長文をスクリーンショットでツイートするユーザーの中には、すでにAltを適切に活用している例もあるようですし、代替テキストに関する知識が浸透することで見える・見えないユーザー両者にメリットのあるノウハウが編み出されていくのではと、Twitterユーザの工夫力にぼんやり期待するところです。

それよりも(おそらく)多数派である日常的に写真付きツイートをするユーザーや影響力のあるアカウントへ向け、いかにしてAltを啓発していくことができるのか。例えばSDGsを意識している企業アカウントにとっては、誰の目にも留まるAltバッジが一つのアピールになる可能性も考えられるでしょう。

代替テキストの認知度アップに伴い、Twitter、ひいてはWeb全体のアクセシビリティを向上させるために、ここが知恵の出しどころではないかと思った次第です。


参考(海外Tech系メディアの記事):

Twitter launches improved alt text accessibility features globally | TechCrunch

Twitter accessibility improved as ALT text made more visible - 9to5Mac

Twitter just got a whole lot more accessible thanks to ALT badging, more | iMore

Twitter rolls out its ALT badge and improved image descriptions - The Verge

Twitter adds updated alt text feature in new accessibility upgrade (mashable.com)


支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...