HyperAIHyperAI
vor 3 Monaten

Lernen von instanzbasierten räumlich-zeitlichen Mustern für die Personenwiedererkennung

Min Ren, Lingxiao He, Xingyu Liao, Wu Liu, Yunlong Wang, Tieniu Tan
Lernen von instanzbasierten räumlich-zeitlichen Mustern für die Personenwiedererkennung
Abstract

Die Person-Identifikation über verschiedene Kameras (Person Re-Identification, Re-ID) zielt darauf ab, Personen unter verschiedenen, nicht überlappenden Kameras zu identifizieren. Die meisten Re-ID-Methoden formulieren das Problem als Lernen visueller Darstellungen und als Bildsuche, wodurch die Genauigkeit stark vom Suchraum abhängt. Raumzeitliche Informationen haben sich als effektiv erwiesen, um irrelevante negative Beispiele zu filtern und die Re-ID-Genauigkeit erheblich zu verbessern. Dennoch sind bestehende Ansätze zur raumzeitlichen Person-Re-ID noch rudimentär und nutzen raumzeitliche Informationen nicht ausreichend aus. In diesem Artikel stellen wir eine neuartige Methode namens Instance-level and Spatial-Temporal Disentangled Re-ID (InSTD) vor, um die Re-ID-Genauigkeit zu erhöhen. In unserem vorgeschlagenen Framework werden individuelle Merkmale wie Bewegungsrichtung explizit berücksichtigt, um den Suchraum weiter einzuschränken. Zudem wird die raumzeitliche Übertragungswahrscheinlichkeit aus der gemeinsamen Verteilung in marginale Verteilungen entkoppelt, sodass auch Ausreißer gut modelliert werden können. Umfassende experimentelle Analysen werden vorgestellt, die die Überlegenheit unserer Methode belegen und zusätzliche Erkenntnisse über deren Funktionsweise liefern. Die vorgeschlagene Methode erreicht eine mAP von 90,8 % auf Market-1501 und 89,1 % auf DukeMTMC-reID, was eine Verbesserung gegenüber der Basislinie von 82,2 % und 72,7 % darstellt. Zusätzlich veröffentlichen wir in diesem Artikel eine bereinigte Datenliste für DukeMTMC-reID, um eine bessere Benchmark für die Person-Re-ID bereitzustellen: https://github.com/RenMin1991/cleaned-DukeMTMC-reID/