Ansichtsbezogene Verlustfunktion mit winkelbasierter Regularisierung für die Personenwiedererkennung

Obwohl in den letzten Jahren erhebliche Fortschritte bei der überwachten Person-Identifikation (Re-ID) erzielt wurden, bleibt die Aufgabe aufgrund der Perspektivenvariation einer Person eine erhebliche visuelle Herausforderung. Die meisten bestehenden Methoden zur Perspektivenbasierten Person-Identifikation projizieren Bilder aus jeder Perspektive in getrennte und voneinander unabhängige Untermerkmalräume. Diese Ansätze modellieren lediglich die Identitätsverteilung innerhalb einer einzelnen Perspektive, ignorieren jedoch die zugrundeliegende Beziehung zwischen verschiedenen Perspektiven. Um dieses Problem zu lösen, stellen wir einen neuen Ansatz vor, genannt \textit{Viewpoint-Aware Loss with Angular Regularization} (\textbf{VA-reID}). Anstelle eines einzelnen Untermerkmalraums pro Perspektive projiziert unsere Methode Merkmale aus verschiedenen Perspektiven in eine einheitliche Hypersphäre und modelliert effektiv die Merkmalsverteilung sowohl auf Identitäts- als auch auf Perspektivenebene. Zudem werden Perspektiven nicht wie bei herkömmlichen Klassifikationsansätzen als harte Labels behandelt, sondern wir führen eine viewpoint-aware adaptive label smoothing regularization (VALSR) ein, die den Merkmalsdarstellungen adaptive weiche Labels zuweist. VALSR kann die Unsicherheit bei der Zuordnung von Perspektivencluster-Labels effektiv abbauen. Umfangreiche Experimente auf den Datensätzen Market1501 und DukeMTMC-reID zeigen, dass unsere Methode die aktuell besten überwachten Re-ID-Methoden übertrifft.