2020年4月18日(現地時間)、世界保健機関(WHO)と米国の非営利団体Global Citizenは全世界でCovid-19と対峙している医療従事者を支援するチャリティ・バーチャルライブショー「One World: Together At Home」を、YouTubeなどのストリーミングサービス及びテレビ放送を通じて配信した。(概要と曲リストはこちらを参照のこと)
残念ながら筆者が調べた範囲では、ライブ配信時に視覚障害者向けの音声解説は提供されなかったようだ。今回のOne Worldは音楽ライブがメインなので目が見えなくても十分に楽しむことはできた。だがアーティストの衣装やパフォーマンスの様子を音声で解説してくれれば、この記念すべきイベントをより深く共有することができただろう。
ただ放送では音声解説はなかったものの、別の手段で視覚障害者への情報提供が行われた。名乗りを挙げたのが「Be My Eyes」。
これはスマートフォンのテレビ電話を用いて目が見えるボランティアが視覚障害者の「目の代わり」をするマイクロボランティアサービスである。晴眼の一般ボランティアに加え、提携した企業や非営利団体の専門サポート(スペシャライズドヘルプ)と視覚障害者をピアツーピアで接続し支援を提供している。執筆時点では日本を含む150以上の国、180以上の言語で370万人のボランティアと21万人の視覚障害者が登録している。
今回のライブイベントでBe My EyesはGlobal Citizenと提携し、英語圏においてスマートフォン用Be My Eyesアプリのスペシャライズドヘルプ機能を通じ、One Worldの音声解説をリアルタイムで提供した。
視覚障害者はOne Worldの放送を聴きながら同時にBe My Eyesアプリを通じて専門のボランティアに接続し、One Worldライブ配信画面の説明を聞いたり、質問したりすることができた。同社はこのライブ配信のために専属ボランティアを募り体制を整えたという。
Be My Eyesといえば「パッケージの賞味期限を見て」とか「パソコンの画面を見て」といったような短時間のサポートで利用されることが多いが、このように特定のコンテンツに対して長時間の支援を提供する用途もあるのだなあと感心した次第。
副音声などのバリアフリー情報は本来であればコンテンツ提供側が用意すべきものだが、緊急かつ非常事態中では時間的・人員的、さらに技術的に難しいケースもあるだろう。今回のBe My Eyesの試みは、そのような場合でも情報保障を確保できるという点において興味深い取り組みと感じた。ただ「画面の説明」は他の同時通訳とは異なりどうしても接続したボランティアの説明スキルに左右されやすいような気がする。まあ今回は映画の音声解説のような厳密な内容ではなく、友人や家族に質問しながら楽しむくらいの体験が目的なのかもしれない(想像だけど)。
ただマンパワーによるリアルタイムの音声解説というソリューションは映像のアクセシビリティ向上の一つの可能性を持っているように思える。今回はBe My Eyesを用いていたが、その他のライブ配信サービスでリアルタイムに音声解説を提供する方法なども考えられるだろう。似たような試みとしては、映画や演劇で活弁士がライブで音声解説を加えるという手法も実際に行われている。
将来的にはAI画像認識を用いた自動音声解説技術の登場も考えられるが、当面はどうしても人間の力が必要になるはずだ。音声解説のチャネルを増やすことで、視覚障害者がより多くのコンテンツを楽しめるようになることを望みたいし、そうなるべきだ。
なおBe My EyesはOne Worldのメインである2時間のライブ音声に、ボストンの放送局WGBHの協力による音声解説(英語)を加えたオーディオをYouTubeで公開した。出演者の名前や衣装などの簡単な音声解説が加えられている。
ちょっとした情報だが、これがあるのとないのとでは、やはり大きな違いがある。そして何よりもコンテンツを提供する側から視覚障害者にも楽しんでもらいたいという送り手の意思が示されたことが重要だ。従来のやり方では難しくても、工夫とアイデアがあれば実現できるという一つの好例だろう。
なおBe My EyesはOne Worldに続き、BET.comが開催したチャリティライブ放送でも同様のサポートを行なった理、英国および米国ではRNIBなど4つの視覚障害者団体と提携し専門サポートの提供を開始した。マイクロボランティアにとどまらない、視覚障害者支援のプラットホームとしてその存在感がさらに増しそうだ。
日本への本格進出にも期待したい。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。