Von Quelle zu Ziel und zurück: symmetrisches bidirektionales adaptives GAN

Die Effektivität generativer adversarischer Ansätze bei der Erstellung von Bildern in einem bestimmten Stil oder visuellen Bereich hat kürzlich neue Richtungen zur Lösung des Problems der unüberwachten Domänenanpassung eröffnet. Es wurde gezeigt, dass Quellbilder mit Labels so modifiziert werden können, dass sie Zielbeispielen nachahmen, wodurch es möglich ist, direkt einen Klassifikator im Zielbereich zu trainieren, trotz des ursprünglichen Mangels an annotierten Daten. Umkehrabbildungen vom Zielbereich zum Quellbereich wurden ebenfalls evaluiert, jedoch nur durch angepasste Merkmalsräume und ohne die Generierung neuer Bilder. In dieser Arbeit schlagen wir vor, das Potenzial generativer adversarischer Netze für die Anpassung besser auszunutzen, indem wir eine neue symmetrische Abbildung zwischen den Bereichen einführen. Wir optimieren bidirektionale Bildtransformationen gemeinsam und kombinieren sie mit der Selbstbeschriftung im Zielbereich. Darüber hinaus definieren wir einen neuen Klassenkonsistenzverlust, der die Generatoren in beiden Richtungen ausrichtet und verlangt, dass die Klassenidentität eines Bildes bei Durchlaufen beider Domänenabbildungen erhalten bleibt. Eine detaillierte qualitative und quantitative Analyse der rekonstruierten Bilder bestätigt die Stärke unseres Ansatzes. Durch die Integration der beiden domänenspezifischen Klassifikatoren, die mit unserem bidirektionalen Netzwerk erzielt wurden, übertreffen wir frühere Stand-von-der-Kunst-Ergebnisse der unüberwachten Anpassung auf vier verschiedenen Benchmark-Datensätzen.