Körperteilbasiertes Lernverfahren für die Wiedererkennung von Personen unter Berücksichtigung von Verdeckungen

Die Personen-Wiedererkennung unter Verdeckung (ReID) ist eine Aufgabe der Personensuche, die darauf abzielt, verdeckte Personenaufnahmen mit umfassenden Bildern zu vergleichen. Um das Problem der verdeckten ReID anzugehen, haben sich teilbasierte Methoden als vorteilhaft erwiesen, da sie detaillierte Informationen liefern und gut geeignet sind, teilweise sichtbare menschliche Körper darzustellen. Dennoch stellt das Training eines teilbasierten Modells aufgrund zweier Gründe eine Herausforderung dar. Erstens ist das individuelle Erscheinungsbild von Körperteilen nicht so diskriminativ wie das globale Erscheinungsbild (zwei verschiedene IDs können dasselbe lokale Erscheinungsbild haben). Dies bedeutet, dass Standard-ReID-Trainingsziele, die Identitätslabels verwenden, nicht für das Lernen lokaler Merkmale geeignet sind. Zweitens werden ReID-Datensätze nicht mit topographischen Annotationen des menschlichen Körpers bereitgestellt.In dieser Arbeit schlagen wir BPBreID vor, ein körperteilbasiertes ReID-Modell zur Lösung der oben genannten Probleme. Wir entwerfen zunächst zwei Module zur Vorhersage von Körperteil-Aufmerksamkeitskarten und zur Generierung körperteilbasierter Merkmale des ReID-Ziels. Anschließend stellen wir GiLt vor, ein neues Trainingsverfahren zum Lernen teilbasierter Darstellungen, das robust gegenüber Verdeckungen und nicht-diskriminativen lokalen Erscheinungsformen ist. Ausführliche Experimente an bekannten umfassenden und verdeckten Datensätzen zeigen die Effektivität unserer vorgeschlagenen Methode, die auf dem anspruchsvollen Occluded-Duke-Datensatz den Stand der Technik um 0{,}7 % mAP und 5{,}6 % Rang-1-Genauigkeit übertrifft. Unser Code ist unter https://github.com/VlSomers/bpbreid verfügbar.