De la source à la cible et retour : GAN adaptatif bidirectionnel symétrique

L'efficacité des approches par réseaux adverses génératifs dans la production d'images selon un style ou un domaine visuel spécifique a récemment ouvert de nouvelles perspectives pour résoudre le problème d'adaptation non supervisée entre domaines. Il a été démontré que les images étiquetées de la source peuvent être modifiées pour imiter les échantillons cibles, rendant ainsi possible l'entraînement direct d'un classifieur dans le domaine cible, malgré l'absence initiale de données annotées. Les mappages inverses du domaine cible au domaine source ont également été évalués, mais uniquement en passant par des espaces de caractéristiques adaptés, sans générer de nouvelles images. Dans cet article, nous proposons d'exploiter davantage le potentiel des réseaux adverses génératifs pour l'adaptation en introduisant un nouveau mappage symétrique entre les domaines. Nous optimisons conjointement les transformations bidirectionnelles des images en les combinant avec l'autolabellisation cible. De plus, nous définissons une nouvelle perte de cohérence de classe qui aligne les générateurs dans les deux directions en imposant la conservation de l'identité de classe d'une image lorsqu'elle passe par les deux mappages de domaine. Une analyse détaillée et qualitative et quantitative des images reconstruites confirme la puissance de notre approche. En intégrant les deux classifieurs spécifiques aux domaines obtenus grâce à notre réseau bidirectionnel, nous surpassons les résultats précédents d'adaptation non supervisée sur quatre jeux de données de référence différents.