円滑な対人コミュニケーションには、相手からあらゆる情報を得て、それに併せたリアクションを取ることが重要だ。会話の内容はもちろん、声のトーンや間の取り方、ちょっとした仕草、顔の表情に至るまで、情報が多ければ多いほど、会話の行き違いや誤解も減るし、うっかりNGワードを投下してしまい、それに気がつかず破滅的な結果を招くこともないはずだ。「空気を読む」なんて言われるが、実際に読んでいるのは相手から発信されるさまざまな情報である。
そう考えてみると、目が見えない筆者が「空気を読まない」と非難されるのは仕方がない話。僕の話で相手の顔が猛スピードで曇っていったとしても、話題を変えることは相当に困難なのだ。想像するだけで背筋が寒くなる話である。
中国のIT大手・ファーウェイは、同社が販売するハイエンドAndroidスマートフォン「Mate 20 Pro」で動作するアプリ「Facing Emotions」をリリースした。
これはスマートフォンのカメラが捉えた人物の顔を人工知能技術を用いて解析し、その表情を7つの感情に分類。その結果に合わせたサウンドを鳴らすことで、見えない・見えにくいユーザーが相手の表情を理解する手助けをする。
「Facing Emotions」を使えば、Mate 20 Proに搭載されたAI専用デュアルプロセッサが、人物の目、鼻、眉、口の位置などをもとに、表情をリアルタイムに判別する。現時点では以下の7種類の感情を音で表現するという。
・anger(怒り)
・fear(恐怖感)
・disgust(嫌悪感)
・happiness(幸福感)
・sadness(悲しみ)
・surprise(驚き)
・contempt(軽蔑)
うーん、どうもネガティブな表情が多いようなきもするが、それだけ「負の表情」は特徴的、ということなのかもしれない。少なくとも、話している相手が機嫌を損ねた時は、即座に警告してくれそうだ。
AIを用いた顔認識技術は「Seeing AI」や「Orcam Myeye」といった視覚支援デバイスではすでに実用化されているが、Facing Emotionsは「表情」に着目している点がユニーク。これは直接対面するシーンを想定されているが、Skypeなどのビデオ通話アプリに組み込まれたりするのも面白いだろう。そういえば、Skypeでは近年、音声をリアルタイムに字幕表示する機能が搭載されたが、視覚障害者向けにも服装や表情を音声で知らせてくれる、なんて未来もそう遠くないのかもしれない。
ファーウェイは他にも、子供向けの書籍を手話に翻訳するアプリ「StorySign」をリリースするなど、AIをアクセシビリティへ応用する試みを行っている。
関連リンク:
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。