Distillation en ensemble à domaine croisé pour la généralisation de domaine

En apprentissage généralisable aux domaines (domain generalization), l’objectif consiste à apprendre un modèle capable de s’adapter à des domaines cibles inédits à partir de plusieurs domaines sources. De nombreuses approches alignent explicitement les distributions entre ces domaines. Toutefois, l’optimisation de cet alignement comporte un risque de surajustement (overfitting), car le domaine cible n’est pas disponible pendant l’entraînement. Pour pallier ce problème, cette étude propose une méthode de généralisation de domaine basée sur la distillation auto-supervisée. La méthode proposée vise à entraîner un modèle résistant aux décalages entre domaines en permettant des erreurs prédictives significatives dans plusieurs domaines. Plus précisément, notre approche consiste à aligner l’ensemble des distributions prédictives de données appartenant à la même classe mais provenant de domaines différents, avec chaque distribution prédictive individuelle. Nous introduisons également une méthode de dés-stylisation qui standardise les cartes de caractéristiques des images afin de favoriser des prédictions cohérentes. Des expériences sur deux benchmarks de classification d’images montrent que la méthode proposée améliore considérablement les performances dans les configurations à source unique comme à sources multiples. Nous démontrons également que la méthode est efficace dans des expériences de ré-identification de personnes (person-reID). Dans l’ensemble, les résultats expérimentaux montrent une amélioration significative par rapport aux méthodes existantes.