17日前
AnyLoc:ユニバーサルな視覚的場所認識への道標
Nikhil Keetha, Avneesh Mishra, Jay Karhade, Krishna Murthy Jatavallabhula, Sebastian Scherer, Madhava Krishna, Sourav Garg

要約
視覚的場所認識(Visual Place Recognition, VPR)はロボットの局所化において極めて重要である。これまでの最も高性能なVPR手法は、環境やタスクに特化したものであり、構造化された環境(主に都市部の自動運転)では優れた性能を発揮するが、非構造化環境ではその性能が著しく低下するため、実世界における堅牢な展開には不向きである。本研究では、構造化環境と非構造化環境の両方(都市部、屋外、屋内、空中、水中、地下など)で動作可能な汎用的なVPRソリューションを開発した。この手法は、再訓練や微調整を一切行わずに、広範な環境に跨って適用可能である。我々は、VPRに特化した学習を一切行わずに、市販の自己教師付きモデルから得られる汎用的な特徴表現が、このような汎用VPRソリューションを構築する上で適切な基盤であることを実証した。これらの特徴表現を無監督特徴集約手法と組み合わせることで、本研究で提案する手法群「AnyLoc」は、既存手法と比較して最大4倍の性能向上を達成した。さらに、これらの特徴表現の意味論的性質を分析することで、類似した環境からのデータセットを包含する独自のドメインを同定し、性能をさらに6%向上させた。詳細な実験と分析を通じて、いつでもどこでも、あらゆる視点から利用可能なVPRソリューションの構築に向けた基盤を確立した。読者の皆様には、本研究のプロジェクトページおよびインタラクティブデモの体験を強くお勧めする:https://anyloc.github.io/。