Robuste Anchor-Embedding für die unsupervisierte Video-Person-Re-Identifikation in der Wildnis
{Xiangyuan Lan Pong C. Yuen Mang Ye}

Abstract
Diese Arbeit behandelt die Skalierbarkeits- und Robustheitsprobleme bei der Schätzung von Etiketten aus unbalancierten, unlabeled Daten für die unsupervisierte, video-basierte Personen-Identifizierung (re-ID). Um dieses Ziel zu erreichen, schlagen wir einen neuen, robusten AnChor Embedding (RACE)-Ansatz vor, der auf tiefen Merkmalsdarstellungen basiert und für die großskalige unsupervisierte Video-re-ID geeignet ist. Innerhalb dieses Rahmens werden zunächst Anchor-Sequenzen, die verschiedene Personen repräsentieren, ausgewählt, um einen Anchor-Graphen zu konstruieren, der gleichzeitig die Initialisierung des CNN-Modells ermöglicht und diskriminative Merkmalsdarstellungen für die nachfolgende Etikettenschätzung liefert. Um die Etikettenschätzung aus unlabeled Sequenzen mit verrauschten Frames präzise durchzuführen, wird ein robuster Anchor-Embedding-Ansatz basierend auf dem regulierten affinen Hüllraum eingeführt. Unter der Annahme einer Mannigfaltigkeitsstruktur wird die Effizienz durch die Verwendung von kNN-Anchor-Embedding anstelle der gesamten Anchor-Menge gewährleistet. Anschließend wird eine robuste und effiziente Top-k-Zählungs-Strategie zur Etikettenvorhersage vorgestellt, um die Etiketten unlabeled Bildsequenzen vorherzusagen. Mit den neu geschätzten, etikettierten Sequenzen ermöglicht der einheitliche Anchor-Embedding-Ansatz eine weitere Verbesserung des Merkmalslernprozesses. Ausführliche experimentelle Ergebnisse auf einem großskaligen Datensatz zeigen, dass die vorgeschlagene Methode bestehende Ansätze für unsupervisierte Video-re-ID übertrifft.
Benchmarks
| Benchmark | Methodik | Metriken |
|---|---|---|
| person-re-identification-on-prid2011 | RACE+ | Rank-1: 50.6 Rank-20: 91.8 Rank-5: 79.4 |
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.