VehicleNet: Lernen robuster Merkmalsdarstellung für die Fahrzeug-Identifizierung
Ein zentrales Herausforderung bei der Fahrzeug-Identifizierung (Re-Id) besteht darin, robuste und diskriminative visuelle Repräsentationen zu lernen, unter Berücksichtigung der erheblichen innerhalb-klasse-Variationen von Fahrzeugen in verschiedenen Kamerabildern. Da bestehende Fahrzeug-Datensätze hinsichtlich der Anzahl an Trainingsbildern und Blickwinkeln begrenzt sind, schlagen wir vor, einen einzigartigen, großskaligen Fahrzeug-Datensatz (namens VehicleNet) durch die Kombination von vier öffentlichen Fahrzeug-Datensätzen zu erstellen, und entwickeln einen neuartigen, jedoch effektiven zweistufigen, fortschreitenden Ansatz zur Lernung robusterer visueller Repräsentationen aus VehicleNet. Im ersten Stadium unseres Ansatzes wird eine generische Repräsentation für alle Domänen (d. h. die Quellfahrzeug-Datensätze) mittels klassischer Klassifikationsverluste erlernt. Dieses Stadium lockert die vollständige Ausrichtung zwischen Trainings- und Testdomäne, da es unabhängig von der Ziel-Domäne ist. Im zweiten Stadium wird das bereits trainierte Modell rein basierend auf der Ziel-Fahrzeug-Menge verfeinert, indem der Verteilungsunterschied zwischen unserem VehicleNet und jeder Ziel-Domäne minimiert wird. Wir diskutieren den vorgeschlagenen mehrquellenbasierten Datensatz VehicleNet und evaluieren die Wirksamkeit des zweistufigen fortschreitenden Lernansatzes durch umfangreiche Experimente. Wir erreichen eine state-of-the-art-Genauigkeit von 86,07 % mAP auf dem privaten Testset der AICity Challenge sowie konkurrenzfähige Ergebnisse auf zwei weiteren öffentlichen Fahrzeug-Re-Id-Datensätzen, nämlich VeRi-776 und VehicleID. Wir hoffen, dass dieser neue VehicleNet-Datensatz sowie die erlernten robusten Repräsentationen den Weg für die Fahrzeug-Identifizierung in realen Umgebungen ebnen werden.