OTON GLASSの体験会へ
いま視覚障害者の間で話題になっているデバイスがあります。
その名は「OTON GLASS」。
視覚障害者をはじめとする、目で文字を読むのが困難なユーザーをサポートするスマートグラスです。
だいぶ月日が経ってしまいましたが、去る2018年2月21日、神奈川県ライトセンターで
そのOTON GLASSを体験できるという情報を得ましたので、ガイドヘルパーさんをお願いしてそそくさと二俣川へ出向きました。
余談ですが、この体験会の情報はOTON GLASSの公式サイトで見つけたのですが、開催される数日前になぜかこの情報が忽然と消えていることに気づき、少々焦りました。
神奈川県ライトセンターのWebやメールマガジンでも告知されていないので、もしかして中止?と思ったのですが、直接電話で問い合わせたら開催されるとの返事をいただきました。
14時30分スタートで少し前に到着したのですが、会場は大盛況。体験まちの行列が途切れないほどです。
あまり広く無い会場だったので、もしかしたら混乱を避けるために情報を引っ込めたのかも?と思ってしまいました…。
それだけ注目を集めている製品ということですね。
2台のOTON GLASSが用意されており、行列に並んで10分ほどの短い間ですが体験することができました。
なおOTON GLASSの概要や外観写真などは以下の公式サイトで確認できます。
このブログ記事はだいぶ前の体験会をもとに執筆していますので、最新の製品仕様なども公式サイトでご確認ください。
OTON GLASSってどんな端末?
OTON GLASSは、いわゆる「スマートグラス」と呼ばれるメガネ型ウェアラブル端末です。
スマートグラスといえば、VRやAR用途の、レンズの内側にディスプレイを搭載したものを想像しますが、OTON GLASSは映像の代わりに音声を出力するデバイスです。
ハードウェアは、スマホを一回り大きくしたくらいのコントローラーと、カメラを搭載したメガネで構成されており、コントローラーとメガネはケーブルで接続。コントローラーに内蔵されているバッテリーで駆動します。
OTON GLASSを使用するには、Wi-Fiによるネットワーク接続が必要です。体験日の時点では、ユーザーがWi-Fiの設定を簡単に行える機能は搭載していないとのことでした。
外出先のWi-Fiスポットやテザリングでの利用を想定すると、より平易な設定が可能にナルト良いのですが。
カメラのレンズはメガネの中心部分、つまり眉間のあたりについています。左側のテンプル(つる)に2つのボタンがあり、撮影とモード変更の操作が可能。
撮影ボタンを押すと、画像データがコントローラーを経由してクラウドへ送信され、サーバ上でテキストの抽出処理を実行、抽出されたテキストをOTON GLASSに戻し、音声で読み上げる仕組みです。
なお音声はコントローラーの出力端子から再生されます。体験日の時点ではワイヤレスでの音声出力はサポートしていませんでした。
「メガネ型」であることが最大の利点
実際にOTON GLASSを使って見ました。
手にとってまず感じたのが「結構ごつい」。
軽量なんですが、普通のメガネフレームと比べると、かなり大きい印象です。メガネというよりはゴーグル?という感じ。
日常的、特に外出先での利用を考えるともう少しコンパクトなデザインが好ましいのですが、部品の収納とかホールド性能など技術的なハードルがあるのかもしれません。
さて、OTON GLASSを装着して読みたい物をメガネの前にかざします。今回は手に持ったパンフレットを読んで見ましたが、フレームに文字が入っていれば遠くの風景でも認識できるようです。
私はうまく読めなかったのですが、数メートル向こうにいる人の名札を認識して読むこともできたそうです。
テンプルの撮影ボタンを押すとサウンドが鳴り、3~5秒ほど待つと、認識されたテキストが読み上げられました。
(認識にかかる時間はネットワークの状況により変化)
認識に失敗するとエラーのサウンドが再生されます。
肝心の文字認識の精度は、スマートフォンのOCRアプリと同程度といった感じ。
シンプルな文字組みなら、かなり正確に認識して読み上げます。音声も自然で聴きやすい。Amazonの音声合成エンジンを採用しているとのこと。
縦書きにも対応し、上下が逆さまでも自動的に認識して解析してくれますが、新聞や雑誌などの複数の段組で構成される文書は苦手なようです。
この辺りはクラウドでの処理に依存する部分なので、OCRの認識精度が向上すれば解決するでしょう。なおOTON GLASSはGoogleのOCRエンジンを使用しているようです。
さてここまで書くと、「だったらスマホのOCRで良いのでは」と思うかもしれません。
実際私も半分くらいそんな感じで見にいったのですが、
いざ使ってみると、メガネ型のウェアラブルであることが結構重要なのではと感じました。
普通に読みたい物を持ち、ワンプッシュで読み上げられるシンプルさは、ユーザーを選びません。眉間にカメラを備えているので、自然な姿勢で確実なフレーミングが可能です。
スマホだとアプリを起動してカメラを選び、レンズの位置を確認しながらフレーミングして……と煩雑な操作が必要で、スマホに不慣れなユーザーにはハードルが高い。
「文字を読む」という日常的な動作をストレスなくこなすには、OTON GLASSのシンプルさには大きな意味があります。
ひとつ要望を書きますと、撮影するのにテンプルのボタンを押す必要があるのが惜しいと感じました。
少し重い本屋書類を読ませたい時に、両手で持ったまま撮影できると、より確実に対象物を撮影できるのではないでしょうか。メガネが軽いので、ボタンを押す時にブレないかも心配。
ボタンが左側にしか無いのも、左利きのユーザーには不利かも?
ジェスチャや音声コマンドまではいかなくても、ハンズフリーで操作できる無線スイッチなどが使えるようになると便利そうです。欲ヲ言えば、「Seeing AI」のDocument Channelのように本屋書類を自動認識して読んでくれると最高なのですけど。
用途の拡大にも期待
OTON GLASSは文字を認識するのにクラウドを利用します。
ネットワーク接続が必要なのは利用シーンを選んでしまうという欠点はありますが、クラウドでの処理を拡張すれば、文字を読む以外の用途にも使えるのでは?という妄想を書き立ててくれますね。
たとえばマイクロソフトの「Seeing AI」のように物体や紙幣の判別に使ったり、「Be My Eyes」のように、目の前の風景を正眼者に送信して音声サポートを受ける、みたいな使い方も期待できそうです。
説明担当の方に質問したのですが、映像をリアルタイムに送信できるかは不明。もし可能であれば、リアルタイムでの物体認識や、米国の「AIRA」のような人力サポートによるナビゲーションにも使えそうですが…。
また、日常生活を便利にするだけでなく、業務に最適化されたAIと組み合わせるなどすれば、視覚障害者の就労の可能性も広がるかもしれません。素人考えですが……。
Oton Glassはクラウドファンディングを経て、2019年の製品化へ向けて開発が進められているようです。
製品化に当たっては、幅広い用途に応用できる設計になると良いですね。
(デザインも、格好良くなるといいなぁ…)
まとめ
体験の順番待ちをしている間、体験の様子や周囲の反応を聞いていたのですが、「すぐに欲しい」という声が非常に多かったのが印象的でした。
スマートフォンだけでなく、OCRで読み上げできる拡大読書器も存在している中、スマートグラスのインパクトは非常に大きいと感じます。
体験したOTON GLASSはまだテスト機でしたが、ユーザーの手元に届く段階でどのような製品に仕上がるのか、とても期待が膨らみます。今回は体験会ということで触れられる時間も限られていましたが、製品版が登場したら、今度はもっとじっくりと体験して見たいものです。
視覚障害者の情報支援技術といえば、PCやスマートフォン、タブレットといったデジタル端末が中心ですが、OTON GLASSの登場で、ウェアラブルデバイスにも、今後注目が集まりそうです。
欧米ではすでに「OrCam」というウェアラブルデバイスが量産化されています。
これらのデバイスが、視覚障害者をはじめ文字を読むことが困難な人々の一助となることを願ってやみません。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。