この記事では、自然環境における日常的なタスクを実行する人間から多指ロボットポリシーを学習することを目指して、スマートグラスを用いた新しいフレームワーク「AINA」の提案が行われています。AINAは、誰でもどこでも、またどの環境でもデータを収集できることを可能にし、高解像度のRGBカメラや正確な3Dヘッドとハンドポーズの情報を提供し、シーンの奥行き推定にも役立ちます。この技術により、背景の変化に対して頑健な3Dポイントベースのポリシーを学習することができ、ロボットデータを必要とせずに直ちにデプロイ可能な手法が確立されます。著者たちは、従来のアプローチとの比較を行い、9つの日常的な操作タスクでの結果を示しており、ロボット操作の一般化を目指す研究に向けた重要な一歩を踏み出しています。