2022年7月28日木曜日

[メモ] AIスーツケース体験記@日本科学未来館(2022-7-10)

おのぼりさん気分で未来館7Fからお台場を撮影した写真、のはず。レインボーブリッジとかフジテレビ社屋とかそれっぽい風景が写っているらしいです。


去る2022年7月8日から10日までの3日間、東京・お台場にある日本科学未来館において「ミライキャンフェス」が開催され、その中で実施された「AIスーツケース体験会」へ参加してきました。

せっかくなので中途全盲中年の視点から感想などメモしておきます。やや記憶が曖昧かつ不正確な部分もあるかと思いますがご容赦ください。


AIスーツケースは自律走行するスーツケース型ロボットを用いて視覚障害者を誘導しつつ、スマートフォンやウェアラブルデバイスと合わせ様々な情報を提供する、統合ナビゲーションシステムです。

この技術の原型ともいえる、現日本科学未来館長・浅川智恵子氏率いる米カーネギーメロン大学の研究チームによる2019年の実証実験については、このブログでも書きました

その後スーツケースへ自律走行技術を採用した「CaBot(Carry-on roBot)」を経て、現在は2020年に発足した次世代移動支援技術開発コンソーシアムにより実用化へ向け開発が進められています。


さて日本科学未来館の5Fに設けられた未来館アクセシビリティラボで開催された体験会では、まず3Dプリンターで制作された未来館の立体モデルに触れる体験を行いました。独特な構造を持つ未来館の建築を触察しつつ、AIスーツケース体験で巡るルートを確認します。

この模型には重箱のようにフロアを分割させるギミックが仕込まれており、パカッと屋根を持ち上げるとフロアごとの3Dモデルが出現。これをiPadの上に乗せることでタッチによる音声説明を再生させるという、多感覚的な仕掛けも試すことができました。

視覚障害者にとって触察は重要な情報伝達手段のひとつではあるのですが、ただ触れただけではそれが何であるかすぐに理解することは困難です。未来館では触察の際、同時にどのような情報提供が効果的であるのかに関しても研究が進められているようです。


触察タイムが終わると、続いてAIスーツケース体験へ進みます。会場である常設展示エリアまで誘導していただき、いよいよご対面と相成りました。

まず確認したかったのが外観。手で触れて形を確かめさせていただくと、それは「想像以上にスーツケース」でした。普通にハンドルを伸ばして縦置きしたスーツケースそのものという佇まいです。

資料によるとケース部分は英国の老舗スーツケースメーカー、グローブ・トロッター社の「007 リミテッドエディション キャリーオン カーボン」を採用しているとのこと。ケース本体の寸法は幅390mm x 高さ550mm x 奥行き180mm。機内へ持ち込めるサイズのスーツケースを想像するとおおよその姿をイメージできるのではと思います。

一般的なスーツケースの見た目と大きく異なるのは、ケースの上面に2つのセンサーが設置されているという点です。まず人物認識に用いられる3Dカメラが収められたお弁当箱くらいのボックスが置かれ、その上に障害物検知および位置推定などに用いられる全方位3D Lidarセンサー(直径10cm程度の円柱体)が重ねて乗せられています。


また外観とともに「AIスーツケースがどのように動くのか?」という点も疑問でした。

結論から言いますと「直立したまま横方向へ動く」が正解。

スーツケースはハンドルが据え付けられている方向から見て、右方向へ進むので、左手でハンドルを握り、進行方向へ体を向けた状態がユーザーの基本的なポジションとなります。

ハンドルの上面には親指で操作するAIスーツケースを制御するための物理ボタン群、手のひらが当たる部分の左右側面には曲がる方向を通知する振動素子、底面にはハンドルを握っているかを検知するためのタッチセンサーが備えられています。ちなみにハンドルは固定されており収納することはできないようです。

この日は走行を開始するのに用いるスタートボタンと速度を調節する2つのボタンのみを使うよう説明を受けました。あと絶対に持ち上げないでとも言われました。


今回の体験では未来館5Fの常設展示エリアの入り口をスタートし、いくつかの展示を経由しつつ元の場所へ戻ってくるという、あらかじめ固定されたルートを巡ります。いわばAIスーツケースによるミュージアム・ツアーといったところでしょうか。

ウェアラブルデバイスやスマートフォンは用いず、AIスーツケースから送られる音声アナウンスを聞くためのネックスピーカーのみを装着。右手には念のため白杖を持ちました。


準備が整ったところでスタートボタンを押すと、AIスーツケースが動き始めます。

ゆっくりソローリ動くと言う感じではなく、ハンドルを通じて結構クイックな加速と力強い手応えが伝わってきます。動作は大きくガタつくこともなく非常に安定かつスムーズ。これはスーツケースの重量とホイールのグリップ力によるものと思われます。

体を持っていかれるほどではありませんが、想像していたよりもひっぱる力を感じました。ただハンドルからの力に対し無理に抵抗せずついていくことはさほど難しくはなく、結構自然な感じ(空港的な場所を優雅に移動する旅人気分)で歩くことができたと思います。端から見ていてどうであったかは知る由もありませんが……体感として。


デフォルトでのスピードはかなりゆっくり目。ハンドルのボタンで調節可能ですが、最高速度でも「気持ち早歩き」くらいでした。体験会向けにリミッターがかけられているのかもしれません。なおAIスーツケースはハンドルから手を離すとその場でピタリと停止するため、置いてけぼりを食らう心配はありません。

しばらく導かられるままついていくと左手に軽い振動を感じ、その後ゆっくりとカーブするのが分かります。これがなかなか絶妙なタイミングでした。また進行方向に何かしらの障害物が見つかると走行を停止します。危険が無いことを確認すると自動的に動き始めるのですが、混雑した場所では固まってしまうのではと思ったりしました。

なおAIスーツケースは基本的に段差を乗り越えることはできませんが、点字ブロック程度の凹凸であれば問題なく走行できるとのことです。


さて経由ポイントへ到着するとAIスーツケースが停止し、ネックスピーカーから目の前の展示に関する音声ガイドが流れます。このときAIスーツケースがその場でくるっと展示ブースの方向へ向くという芸の細かさも披露してくれました。賢い。

今回の体験中、ルートを外れたり到着地点を間違うと言った様子はなく、ナビゲーションの精度はかなり高いという印象です。

ここでスタートボタンを押すと、AIスーツケースは次の経由ポイントへ向けて動き始めます(この時展示ブースからスーツケースに戻るのにちょっと迷ったのは内緒)。

これを数回繰り返し、スタート地点へ戻ればゴール。時間にして数分間でしたが大きなトラブルもなく今回の体験は無事終了しました


ちなみにAIスーツケースのフィーリングについては体験した当事者から盲導犬に近い、または手引き誘導に近いという2つの意見が挙がっているようです。個人的にはハンドルから感じられるフィードバックは(私の数少ない)盲導犬体験に近いもののように思えました。これは動きのクイックさや重心の低さなどからきているのかもしれません。

常に緊張感を強いられるスマートフォンアプリやウェアラブルデバイスなどによるナビゲーションと比較すると、導かれるまま歩くだけで目的地につけると言うのは非常にストレスフリー。何も考えず余裕を持って単独移動できるのは、ロボット誘導ならではの経験ではないかと思います。短い時間でしたがスーツケースそのものの大きさや重量感からは、なぜか頼もしさのような感情すら覚えました笑。

ただ今回は固定されたルートを回るだけという限定された体験であったため、歩行支援というよりは「スーツケースに連れ回されている」という感じが若干醸し出されていたような気がしました。

歩行を支援するデバイスというよりも、目的地まで運んでくれる交通手段に近いような感覚でしょうか。自動運転車の技術も使われてますしね。これはこれでラクではあるのですが、せっかくならもっと自由に歩き回れたらさらに楽しいのではと思いました。

今後ユーザーの指示でスーツケースをコントロールする体験ができるようになれば、この印象は変わってくるかもしれません。この安定した運動性能のまま「自分の意志で移動している」感覚が得られれば、これまで経験したことのない自立性を感じられるのではないかと思うのですがどうでしょうか。


振り返りますとこのブログでも視覚障害者を誘導する様々なロボット技術について紹介してきました(白杖型人間型犬型ドローン型)。ただ書いておいてアレなのですが、いずれも興味深いけれど、実現性は……というのが率直な感想だったりします。

AIスーツケースは大手技術メーカーがこぞって開発に取り組んでいるということもあり、実用化へ向けた熱意のようなものを感じます。そして何より視覚障害当事者である浅川氏がこのプロジェクトを率いているという点は「Nothing About Us Without Us」の原則からも重要であるように思います。

正直なところ今回の体験の範囲ではAIスーツケースが本当に視覚障害者の役に立つものであるのか、判断するのは難しいと思う一方、ロボットを用いた誘導がここまで実現していることには素直にびっくりしたのも事実。実用化にはまだまだ超えなければならないハードルは多いようですが、期待を持ちつつ今後の開発の行方を見届けてみたいと思いました。

一般向けの体験会はこれからも開かれるとのことですので、チャンスがあればぜひ体験をおすすめします。普通に未来的アトラクション感覚で面白いですよ。当事者からどんどんフィードバックして未来のモビリティを実現させましょう。


最後に、体験の後にあーだこーだ質問していたら、このおじさん変わってると思われたのでしょうか……AIスーツケースの中身をちょっとだけ触らせていただきました。

ぱかりとケースの蓋が開けられると、その中にはメインの処理を担当するノートPC(UbuntuをベースにカスタムROSが動作)、センサーとインターフェイス類を制御するArduino(多分…?)、そして一際存在感を主張するバッテリーなどが所狭しと詰め込まれていました。

なるほど、あの安定感はこのバッテリー由来なのかと妙に納得。モーターやホイールといった駆動部分にはロボット向けの部品が使われているとのことで、ああ見た目は高級スーツケースでもこれは立派なロボットなのだな、と改めて思ったのでした。


さてと、情報が多かったのでダラダラな文章にな理ました。

とにかく今回は貴重な体験ができ、大変面白かったです。

日本科学未来館の関係者の皆様、ありがとうございました。


0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

支援技術関連記事まとめ(2022年10月)

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...