Jeder Teil zählt: Lokale Muster erleichtern die Geo-Lokalisierung über verschiedene Ansichten hinweg

Die Cross-View Geo-Lokalisierung befasst sich damit, Bilder des gleichen geografischen Ziels von verschiedenen Plattformen zu identifizieren, wie zum Beispiel Drohnenkameras und Satelliten. Dies ist besonders herausfordernd aufgrund der großen visuellen Veränderungen, die durch extreme Blickwinkelunterschiede verursacht werden. Bestehende Methoden konzentrieren sich in der Regel darauf, detaillierte Merkmale des geografischen Ziels im Bildzentrum zu erfassen, unterschätzen aber die kontextuellen Informationen in benachbarten Bereichen. In dieser Arbeit argumentieren wir, dass benachbarte Bereiche als zusätzliche Informationen genutzt werden können, um diskriminierende Hinweise für die Geo-Lokalisierung zu bereichern. Speziell führen wir ein einfaches und effektives tiefes neuronales Netzwerk ein, das als Local Pattern Network (LPN) bezeichnet wird und kontextuelle Informationen auf eine end-to-end-Basis nutzt. Ohne zusätzliche Teilschätzer verwendet LPN eine Quadrat-Ring-Feature-Partitionierungsstrategie, die Aufmerksamkeit nach dem Abstand zum Bildzentrum gewährt. Dies erleichtert die Teilmusterabgleichung und ermöglicht das lernbasierte Teildarstellungsmodell. Dank der Quadrat-Ring-Partitionierung zeichnet sich das vorgeschlagene LPN durch gute Skalierbarkeit bei Rotationsveränderungen aus und erzielt wettbewerbsfähige Ergebnisse auf drei führenden Benchmarks: University-1652, CVUSA und CVACT. Darüber hinaus zeigen wir, dass das vorgeschlagene LPN leicht in andere Frameworks integriert werden kann, um die Leistung weiter zu verbessern.