Augmentation adversaire centrée sur le centre pour la généralisation sur un seul domaine

La généralisation de domaine (DG) vise à apprendre un modèle à partir de plusieurs domaines d'entraînement (appelés domaines sources) afin qu'il se généralise efficacement aux données de test non vues (appelées domaines cibles), provenant d'une distribution différente. La généralisation de domaine à un seul domaine (SingleDG) est récemment apparue pour traiter un cadre plus exigeant, mais plus réaliste, où seul un seul domaine source est disponible lors de l'entraînement. Les approches existantes de SingleDG reposent généralement sur des stratégies d'augmentation de données visant à élargir la portée des données sources en augmentant des échantillons hors domaine. En général, ces méthodes cherchent à générer des exemples difficiles afin de perturber le classificateur. Bien que cela puisse renforcer la robustesse du classificateur face à de petites perturbations, les échantillons ainsi générés manquent souvent de diversité, ce qui empêche de bien imiter un grand décalage de domaine, entraînant ainsi des performances de généralisation sous-optimales. Pour atténuer ce problème, nous proposons une technique d'augmentation adversaire centrée, qui élargit la distribution source en modifiant les échantillons sources de manière à les éloigner des centres de classe grâce à une nouvelle fonction de perte angulaire centrée. Nous menons des expériences approfondies pour démontrer l'efficacité de notre approche sur plusieurs jeux de données standard pour le SingleDG, et montrons que notre méthode surpasser la plupart des états de l'art dans la plupart des cas.