Repenser la généralisation multi-domaines avec un objectif d'apprentissage général

La généralisation multi-domaines (mDG) vise universellement à minimiser l’écart entre les distributions d’apprentissage et de test afin d’améliorer le mapping entre la distribution marginale et la distribution des étiquettes. Toutefois, la littérature existante en mDG manque d’un paradigme d’objectif d’apprentissage général et impose souvent des contraintes sur des distributions marginales cibles statiques. Dans cet article, nous proposons d’utiliser une transformation $Y$-mapping afin de relâcher cette contrainte. Nous repensons l’objectif d’apprentissage pour la mDG et concevons un nouvel \textbf{objectif d’apprentissage général} permettant d’interpréter et d’analyser la majeure partie des connaissances existantes en mDG. Cet objectif général est décomposé en deux objectifs synergiques : l’apprentissage de caractéristiques conditionnelles indépendantes des domaines, et la maximisation d’une distribution a posteriori. Des investigations s’étendent également à deux termes de régularisation efficaces, intégrant des informations a priori et supprimant les causalités invalides, ce qui atténue les problèmes liés au relâchement des contraintes. Nous apportons théoriquement une borne supérieure pour l’alignement des domaines des caractéristiques conditionnelles indépendantes des domaines, révélant que de nombreuses approches antérieures en mDG optimisent en réalité seulement partiellement cet objectif, entraînant ainsi des performances limitées. Par conséquent, notre étude synthétise un objectif d’apprentissage général en quatre composantes pratiques, offrant un mécanisme général, robuste et flexible pour traiter des décalages de domaine complexes. Des résultats empiriques étendus montrent que l’objectif proposé, combiné au $Y$-mapping, conduit à des performances significativement améliorées en mDG sur diverses tâches downstream, notamment la régression, la segmentation et la classification.