Prototypische cross-domain selbstüberwachte Lernverfahren für Few-shot unsupervised Domain Adaptation

Unsupervised Domain Adaptation (UDA) überträgt prädiktive Modelle von einem vollständig beschrifteten Quelldomäne auf eine unbeschriftete Ziel-Domäne. In bestimmten Anwendungen ist es jedoch bereits kostspielig, Beschriftungen in der Quelldomäne zu sammeln, wodurch die meisten bisherigen Ansätze praktisch unbrauchbar werden. Um dieses Problem anzugehen, haben jüngere Arbeiten eine instanzweise, cross-domain selbstüberwachte Lernmethode durchgeführt, gefolgt von einer zusätzlichen Feinabstimmungsphase. Allerdings lernt die instanzweise selbstüberwachte Lernmethode lediglich und aligniert nur niedrigstufige, diskriminative Merkmale. In diesem Paper stellen wir einen end-to-end Rahmenwerk namens Prototypical Cross-domain Self-Supervised Learning (PCS) für Few-shot Unsupervised Domain Adaptation (FUDA) vor. PCS führt nicht nur eine cross-domain Alignment niedrigstufiger Merkmale durch, sondern kodiert und aligniert auch semantische Strukturen im gemeinsamen Embedding-Raum über verschiedene Domänen hinweg. Unser Rahmenwerk erfasst kategorienspezifische semantische Strukturen der Daten mittels in-domain prototypischer kontrastiver Lernmethode und erreicht Merkmalsalignment durch cross-domain prototypische selbstüberwachte Lernverfahren. Im Vergleich zu aktuellen State-of-the-Art-Methoden verbessert PCS die mittlere Klassifikationsgenauigkeit bei verschiedenen Domänenpaaren im FUDA um 10,5 %, 3,5 %, 9,0 % und 13,2 % auf den Datensätzen Office, Office-Home, VisDA-2017 und DomainNet, jeweils. Die Projektseite finden Sie unter http://xyue.io/pcs-fuda/index.html