Lernen von unsupervisierter, domainsübergreifender Bild-zu-Bild-Übersetzung unter Verwendung eines gemeinsamen Diskriminators

Unüberwachte Bild-zu-Bild-Übersetzung wird verwendet, um Bilder aus einer Quelldomäne in Bilder einer Zieldomäne zu transformieren, ohne dass Paare aus Quell- und Zielbildern benötigt werden. Für dieses Problem wurden in einem adversarialen Rahmen mit zwei unabhängigen GANs und Aufmerksamkeitsmechanismen vielversprechende Ergebnisse erzielt. Wir stellen eine neue Methode vor, die einen einzigen gemeinsamen Diskriminator zwischen den beiden GANs nutzt, wodurch die Gesamteffizienz verbessert wird. Wir bewerten die qualitativen und quantitativen Ergebnisse bei der Bildtransfiguration, einer Aufgabe zur cross-domain-Übersetzung, in einem Szenario, in dem die Ziel- und Quelldomäne ähnliche Semantik aufweisen. Unsere Ergebnisse zeigen, dass unsere Methode selbst ohne die Hinzufügung von Aufmerksamkeitsmechanismen mit aufmerksamkeitsbasierten Methoden konkurrieren kann und Bilder vergleichbarer Qualität erzeugt.