Adaptation de domaine discriminative antagoniste

Les méthodes d'apprentissage par apprentissage adverse constituent une approche prometteuse pour l'entraînement de réseaux profonds robustes et peuvent générer des échantillons complexes dans divers domaines. Elles peuvent également améliorer la reconnaissance malgré la présence d'un décalage de domaine ou d'un biais de jeu de données : plusieurs approches adverses à l'adaptation de domaine non supervisée ont été récemment introduites, qui réduisent la différence entre les distributions des domaines d'entraînement et de test, améliorant ainsi les performances de généralisation. Les approches génératives précédentes présentent des visualisations convaincantes, mais ne sont pas optimales pour les tâches discriminatives et peuvent être limitées aux petits décalages. Les approches discriminatives précédentes pouvaient gérer des décalages de domaine plus importants, mais imposaient des poids liés au modèle et n'exploitaient pas une perte basée sur un GAN (Generative Adversarial Network).Nous présentons tout d'abord un cadre généralisé novateur pour l'adaptation adverse, qui englobe les approches récentes de pointe en tant que cas particuliers, et nous utilisons cette vue généralisée pour mieux relier les approches antérieures. Nous proposons une instance inédite de notre cadre général qui combine le modèle discriminatif, le partage de poids non lié et une perte GAN, que nous appelons Adaptation Adverse Discriminative (ADDA). Nous montrons qu'ADDA est plus efficace tout en étant considérablement plus simple que les méthodes adverses concurrentes en matière d'adaptation de domaine, et nous démontrons le potentiel de notre approche en surpassant les résultats d'adaptation non supervisée de pointe sur des tâches standard de classification de chiffres inter-domaines et une nouvelle tâche plus difficile de classification d'objets inter-modalités.