FixBi: Brücken zwischen Domänenräumen für unsupervised Domain Adaptation

Unüberwachte Domänenanpassung (UDA)-Methoden zur Lernung domäneninvarianter Darstellungen haben bemerkenswerte Fortschritte erzielt. Allerdings basierten die meisten Studien auf einer direkten Anpassung von der Quell- zur Ziel-Domäne und litten unter erheblichen Domänenunterschieden. In diesem Paper stellen wir eine UDA-Methode vor, die solche großen Domänenunterschiede effektiv bewältigt. Wir führen eine Mixup-Technik mit festem Verhältnis ein, um mehrere Zwischendomänen zwischen Quell- und Ziel-Domäne zu erweitern. Aus diesen erweiterten Domänen trainieren wir ein quell-dominiertes Modell und ein ziel-dominiertes Modell, die sich gegenseitig ergänzen. Mittels unserer vertrauensbasierten Lernmethoden – beispielsweise bidirektionaler Übereinstimmung mit hochvertrauenswürdigen Vorhersagen und Selbstbestrafung mittels niedrigvertrauenswürdiger Vorhersagen – können die Modelle voneinander oder von eigenen Ergebnissen lernen. Durch die vorgeschlagenen Methoden übertragen die Modelle schrittweise Domänenwissen von der Quell- zur Ziel-Domäne. Umfangreiche Experimente belegen die Überlegenheit unserer Methode an drei öffentlichen Benchmarks: Office-31, Office-Home und VisDA-2017.