本研究は、未知の環境における物体指向ナビゲーション(ObjNav)を実現する新しい手法「HyPerNav」を提案しています。この手法は、RGB-Dセンサーからの自己中心的な観察による豊富な局所情報と、リアルタイムなトップダウンマップが提供する貴重な全体情報を統合することで、ロボットが目標物体に直接かつ自律的にナビゲートできるようにします。既存の研究の多くは、単一の情報源に焦点を当てているため、両者を統合したアプローチはほとんどありません。HyPerNavでは、ビジョン-言語モデル(VLM)の強力な推論能力と理解力を活用し、局所と全体の情報を同時に把握します。シミュレーション評価と実世界での検証において、従来の手法に対して最先端のパフォーマンスを達成しました。このハイブリッド認識アプローチにより、より多くの手がかりを捉え、物体を効果的に特定することが可能となります。