AnyLoc: Hin zu einer universellen visuellen Ortsbestimmung

Visual Place Recognition (VPR) ist entscheidend für die Lokalisierung von Robotern. Bisher sind die leistungsstärksten VPR-Ansätze jedoch umgebungsspezifisch und auf bestimmte Aufgaben zugeschnitten: Während sie in strukturierten Umgebungen (insbesondere im urbanen Verkehr) hervorragende Leistung erzielen, verschlechtert sich ihre Performance erheblich in unstrukturierten Umgebungen, was die meisten Ansätze für eine robuste Anwendung in der realen Welt ungeeignet macht. In dieser Arbeit entwickeln wir eine universelle Lösung für VPR – eine Technik, die in einer breiten Vielzahl strukturierter und unstrukturierter Umgebungen (städtische, außenliegende, innenliegende, luftgestützte, unterwasser- und unterirdische Umgebungen) funktioniert, ohne dass eine erneute Trainierung oder Feinabstimmung erforderlich ist. Wir zeigen, dass allgemein einsetzbare Merkmalsdarstellungen, die aus kommerziell erhältlichen selbstüberwachten Modellen abgeleitet werden und ohne spezifische VPR-Trainingsphase gewonnen wurden, die geeignete Grundlage für eine solche universelle VPR-Lösung bilden. Durch die Kombination dieser abgeleiteten Merkmale mit unsupervisierter Merkmalsaggregation erreicht unsere Methodenreihe, AnyLoc, bis zu vierfach höhere Leistung als bestehende Ansätze. Zusätzlich erzielen wir eine Verbesserung der Leistung um 6 %, indem wir die semantischen Eigenschaften dieser Merkmale charakterisieren und hierdurch eindeutige Domänen identifizieren, die Datensätze aus ähnlichen Umgebungen umfassen. Unsere detaillierten Experimente und Analysen legen die Grundlage für die Entwicklung von VPR-Lösungen, die überall, jederzeit und aus beliebigen Blickwinkeln eingesetzt werden können. Wir laden die Leser herzlich ein, unsere Projektseite und interaktiven Demos zu erkunden: https://anyloc.github.io/.