DiP: Lernen diskriminativer impliziter Teile für die Person-Re-Identifikation

Bei der Personen-Identifikation in Bildern (In-Image Re-Identification, ReID) untersuchen zahlreiche Ansätze die Lernung von Teilmerkmalen, um die Leistungsfähigkeit gegenüber globalen Bildmerkmalen zu verbessern. Bestehende Methoden extrahieren Teilmerkmale explizit entweder durch eine handgefertigte Bildunterteilung oder durch Schlüsselpunkte, die mit externen visuellen Systemen ermittelt werden. In dieser Arbeit schlagen wir vor, diskriminative implizite Teile (Discriminative implicit Parts, DiPs) zu lernen, die von expliziten Körperteilen entkoppelt sind. Dadurch können DiPs beliebige diskriminative Merkmale lernen, die zur Unterscheidung von Identitäten beitragen, wodurch sie über vorgegebene Körperbereiche (wie Accessoires) hinausgehen. Zudem führen wir eine neuartige implizite Position ein, die jeder DiP eine geometrische Interpretation verleiht. Diese implizite Position kann zudem als Lernsignal dienen, um die Positionsinvarianz der DiPs gegenüber der Identität im Bild zu fördern. Schließlich wird eine zusätzliche Gewichtung für DiPs eingeführt, um Situationen mit Verdeckung oder Unsichtbarkeit besser zu bewältigen und die Merkmalsrepräsentation der DiPs weiter zu verbessern. Umfangreiche Experimente zeigen, dass die vorgeschlagene Methode eine state-of-the-art-Leistung auf mehreren Standardbenchmarks für Personen-ReID erzielt.