AG-ReID.v2: Brückenbildung zwischen Luft- und Bodensicht für die Personen-Identifizierung

Die personenbasierte Re-Identifikation (Re-ID) aus Luft- und Bodenperspektive stellt im Bereich der Computer Vision besondere Herausforderungen dar, die auf die erheblichen Unterschiede in Blickwinkel, Körperhaltung und Auflösung zwischen hochfliegenden Luftbildkameras und bodengestützten Kameras zurückzuführen sind. Die bestehende Forschung konzentriert sich überwiegend auf die Re-ID zwischen Bodenperspektiven, während die Re-ID aus Luftperspektive aufgrund des Mangels an umfassenden Datensätzen weniger erforscht ist. Um dieses Defizit zu beheben, stellen wir AG-ReID.v2 vor – einen speziell für die personenbasierte Re-Identifikation in gemischten Luft- und Bodenszenarien konzipierten Datensatz. Der Datensatz umfasst 100.502 Bilder von 1.615 eindeutigen Individuen, wobei jedes Bild mit einer Match-ID und 15 weichen Attributlabels annotiert ist. Die Daten wurden aus vielfältigen Perspektiven mittels UAV, stationärer CCTV-Kameras und kameraintegrierter Smart Glasses erfasst, was eine reichhaltige Vielfalt an intra-identitätsbedingten Variationen ermöglicht. Zusätzlich haben wir ein erklärbares Aufmerksamkeitsnetzwerk für diesen Datensatz entwickelt. Dieses Netzwerk basiert auf einer dreifachen Architektur, die Paarbild-Distanzen effizient verarbeitet, zentrale top-down Merkmale hervorhebt und sich an Änderungen der Erscheinungsbilder aufgrund unterschiedlicher Flughöhen anpasst. Vergleichende Evaluierungen belegen die Überlegenheit unseres Ansatzes gegenüber etablierten Baselines. Wir planen, den Datensatz und den Quellcode des Algorithmus öffentlich zugänglich zu machen, um die Forschung in diesem spezialisierten Bereich der Computer Vision voranzutreiben. Für den Zugriff besuchen Sie bitte: https://github.com/huynguyen792/AG-ReID.v2.