2022年2月28日月曜日

New York大学とWoven Planet、視覚障害者の移動支援に活用できる屋外画像認識データセットを公開。

downtown NYC street with no cars

画像引用元


New York大学(NYU)Tandon工学部の研究チームと、トヨタの100%子会社であるデジタルマッピング企業Woven Planetは、イメージベースの高精度な屋外ナビゲーションを実現する新しい機械学習データセットを公開しました。無償で教育・研究などの用途に利用することができるとのことです。


Woven Planetは、NYUのVisualization, Imaging and Data Analytics(VIDA)と提携し、20万枚以上にもおよぶ屋外画像のデータセットを1年かけて構築しました。

このデータセットでは、前方を向いた画像に加え、歩道や店先の横から見た複数視点から撮影された画像も含まれており、従来の単一視点だけから構成されたデータと比べ多くの用途に応用できると研究チームは述べています。

さらに同じ場所の1年間の長期的な変化を捉えているため、雪や木々の生い茂りなど様々な条件においてVPR(Visual Place Recognition、画像による位置認識)の精度を向上させることができるとのことです。


このデータセットは自律走行車といった自動車のナビゲーション用途だけでなく、例えば視覚障害者の単独歩行を支援するナビゲーションシステムや、歩道を走行する自動配達ロボットの制御などへの応用が期待されています。

NYU Tandonの生物医学工学、機械・航空宇宙工学の教授、およびNYU Grossman医学部の副教授であり自らも視覚障害者であるJohn-Ross Rizzo博士が率いる研究チームは、すでにこのデータセットを用いて視覚障害者のナビゲーションを実現するウェアラブル技術の開発を進めているとのことです。


カメラで撮影した物体や風景を、AIによって識別するアプリはいくつかリリースされていますが、視覚障害者にとって実用的なものはあまりありません。このようなアプリの精度を向上させるためには、どうしても汎用性のあるデータではなく視覚障害者の用途に最適化された巨大な機械学習データセットが必要となってくるでしょう。

Woven Planetのデータセットにより、今後視覚障害者にも使える画像認識アプリの登場が期待できるかもしれません。視覚障害者向けのデータトレーニングのプロジェクトとしてはMicrosoftのAI for Accessibilityの支援を受けたORBITが知られていますが、他にももっとこのような動きが出てきて欲しいところです。


参考:NYU team releases open-source database from Woven Planet to help visually impaired pedestrians navigate cities | NYU Tandon School of Engineering


0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。

支援技術関連記事まとめ(2022年11月)※お知らせあり。

※以下のリンクをクリックするとDropboxへ接続し、ダウンロードが自動的に始まります。 ※ダウンロードファイルはHTML形式です。ブラウザで開いてください。 ※正常に表示されない場合は別のブラウザで試すか、エンコード設定を変えて見てくださ い。 ダウンロード: 海外記事 / 国...