17 天前

AnyLoc:迈向通用视觉场景识别

Nikhil Keetha, Avneesh Mishra, Jay Karhade, Krishna Murthy Jatavallabhula, Sebastian Scherer, Madhava Krishna, Sourav Garg
AnyLoc:迈向通用视觉场景识别
摘要

视觉场景识别(Visual Place Recognition, VPR)对于机器人定位至关重要。迄今为止,性能最优的VPR方法大多依赖于特定环境与特定任务:尽管它们在结构化环境(主要为城市驾驶场景)中表现出色,但在非结构化环境中性能显著下降,导致大多数现有方法难以适应真实世界的鲁棒部署需求。本文提出了一种通用的VPR解决方案——一种无需任何重新训练或微调即可在广泛多样的环境中运行的技术,涵盖城市、户外、室内、空中、水下及地下等多种场景。我们证明,仅通过使用现成的自监督模型提取的通用特征表示(无需针对VPR任务进行专门训练),即可构成构建通用VPR系统的理想基础。将这些通用特征与无监督特征聚合方法相结合,使得我们提出的AnyLoc方法集在性能上相比现有技术最高提升达4倍。此外,通过分析这些特征的语义属性,我们进一步识别出若干独特语义域,成功将来自相似环境的数据集进行有效归类,从而实现了性能再提升6%。详尽的实验与深入分析为构建可随时随地、适用于任意视角的普适性VPR系统奠定了坚实基础。我们诚挚邀请读者访问我们的项目主页及交互式演示:https://anyloc.github.io/。