Von Posen zur Identität: Trainingsfreie Personenwiedererkennung mittels Merkmalszentrierung

Personen-Identifikation im Mehrkamera-System (ReID) zielt darauf ab, präzise Identitätsrepräsentationsmerkmale zu extrahieren. Bei der Merkmalsextraktion werden jedoch einzelne Proben zwangsläufig durch Rauschen beeinflusst (Hintergrund, Verdeckung, Modellbegrenzungen). Da nach dem Training Merkmale derselben Identität einer Normalverteilung um die Identitätszentren folgen, schlagen wir einen trainingsfreien Framework zur Merkmalszentrierung für ReID vor (Pose2ID), indem wir Merkmale derselben Identität aggregieren, um individuelles Rauschen zu reduzieren und die Stabilität der Identitätsrepräsentation zu verbessern, wobei die ursprüngliche Merkmalsverteilung für nachfolgende Strategien wie Re-Ranking erhalten bleibt. Konkret führen wir zwei Komponenten ein, um Proben derselben Identität zu gewinnen: Identity-Guided Pedestrian Generation: Durch die Nutzung von Identitätsmerkmalen zur Steuerung des Generierungsprozesses erhalten wir hochwertige Bilder mit vielfältigen Pose, wodurch eine hohe Identitätskonsistenz auch in komplexen Szenarien wie Infrarot oder bei Verdeckung gewährleistet wird. Neighbor Feature Centralization: Diese Komponente untersucht potenzielle positive Proben eines bestimmten Samples in seiner Nachbarschaft. Experimente zeigen, dass unser generativer Ansatz starke Generalisierungsfähigkeit aufweist und eine hohe Identitätskonsistenz beibehält. Mit dem Feature Centralization Framework erreichen wir beeindruckende Ergebnisse sogar mit einem ImageNet-vortrainierten Modell ohne spezifische ReID-Training – mAP/Rank-1 von 52,81/78,92 auf Market1501. Darüber hinaus erzielt unsere Methode neue SOTA-Ergebnisse bei standarden, multimodalen sowie verdeckten ReID-Aufgaben und demonstriert eine starke Anpassungsfähigkeit.