Ausnutzung robuster unsupervisierter Video-Person-Re-Identification

Unüberwachte Methoden für die Video-Person-Identifikation (reID) beruhen in der Regel auf globalen Merkmalen. Viele überwachte reID-Methoden nutzen hingegen lokale Merkmale und erreichten dabei erhebliche Leistungsverbesserungen. Die Anwendung lokaler Merkmale in unüberwachten Ansätzen kann jedoch zu einer instabilen Leistung führen. Um die Leistungsstabilität bei unüberwachter Video-reID zu verbessern, stellt dieser Artikel ein allgemeines Schema vor, das Teilmodelle und unüberwachtes Lernen vereint. In diesem Schema wird das globale Merkmal in gleich große lokale Merkmale aufgeteilt. Ein lokal-aware-Modul wird eingesetzt, um das Potenzial lokaler Merkmale für das unüberwachte Lernen auszuschöpfen. Zudem wird ein global-aware-Modul vorgeschlagen, um die Nachteile lokaler Merkmale zu überwinden. Die Merkmale beider Module werden fusioniert, um eine robuste Merkmalsrepräsentation für jedes Eingabebild zu erzeugen. Diese Merkmalsrepräsentation vereint die Vorteile lokaler Merkmale, ohne deren Nachteile zu erben. Umfassende Experimente wurden auf drei Benchmarks durchgeführt, darunter PRID2011, iLIDS-VID und DukeMTMC-VideoReID, wobei die Ergebnisse zeigen, dass der vorgeschlagene Ansatz eine state-of-the-art-Leistung erzielt. Ausführliche Ablationsstudien belegen die Wirksamkeit und Robustheit des vorgeschlagenen Schemas sowie der einzelnen Module. Der Quellcode und die generierten Merkmale sind unter https://github.com/deropty/uPMnet verfügbar.