HyperAIHyperAI
vor 11 Tagen

Gemeinsame Entkoppelung und Anpassung für die domainsübergreifende Personenwiedererkennung

Yang Zou, Xiaodong Yang, Zhiding Yu, B.V.K. Vijaya Kumar, Jan Kautz
Gemeinsame Entkoppelung und Anpassung für die domainsübergreifende Personenwiedererkennung
Abstract

Obwohl in der überwachten Person-Identifikation (re-id) erhebliche Fortschritte erzielt wurden, bleibt die Generalisierbarkeit von re-id-Modellen auf neue Domänen aufgrund der erheblichen Domänenunterschiede weiterhin herausfordernd. In jüngster Zeit hat sich zunehmendes Interesse an der Verwendung von unsupervised Domain Adaptation zur Bewältigung dieses Skalierbarkeitsproblems entwickelt. Bisherige Ansätze führen die Anpassung typischerweise im Darstellungsraum durch, der sowohl id-relevante als auch id-unabhängige Faktoren enthält, wodurch die Wirksamkeit der Anpassung id-relevanter Merkmale unvermeidlich beeinträchtigt wird. In diesem Artikel streben wir eine Verbesserung der Anpassung durch die Reinigung des Darstellungsraums an, der angepasst werden soll. Dazu schlagen wir einen gemeinsamen Lernrahmen vor, der id-relevante und id-unabhängige Merkmale voneinander trennt und sicherstellt, dass die Anpassung ausschließlich im id-relevanten Merkmalsraum erfolgt. Unser Modell umfasst ein Trennmodul, das cross-domain-Bilder in einen gemeinsamen Erscheinungsraum sowie zwei getrennte Strukturräume kodiert, sowie ein Anpassungsmodul, das adversarische Ausrichtung und Selbsttraining im gemeinsamen Erscheinungsraum durchführt. Die beiden Module sind gemeinsam entworfen, um sich gegenseitig zu unterstützen. Ausführliche Experimente zeigen, dass der vorgeschlagene gemeinsame Lernrahmen die derzeit besten Methoden klar übertrifft.

Gemeinsame Entkoppelung und Anpassung für die domainsübergreifende Personenwiedererkennung | Neueste Forschungsarbeiten | HyperAI