PCL : Apprentissage contrastif basé sur des proxys pour la généralisation de domaine

La généralisation de domaine consiste en la problématique d'entraîner un modèle à partir d'une collection de domaines sources différents, afin qu'il puisse généraliser directement à des domaines cibles non vus. Une solution prometteuse repose sur l'apprentissage contrastif, qui vise à apprendre des représentations invariantes par rapport au domaine en exploitant les riches relations sémantiques entre paires d'échantillons provenant de différents domaines. Une approche simple consiste à rapprocher les paires d'échantillons positifs provenant de domaines distincts, tout en éloignant les paires négatives. Dans cet article, nous constatons que l'application directe des méthodes basées sur l'apprentissage contrastif (par exemple, l'apprentissage contrastif supervisé) s'avère inefficace dans le cadre de la généralisation de domaine. Nous arguons que l'alignement des paires d'échantillons positifs tend à entraver la généralisation du modèle en raison des écarts significatifs entre les distributions des différents domaines. Pour remédier à ce problème, nous proposons une nouvelle méthode d'apprentissage contrastif basée sur des proxys, qui remplace les relations originales entre échantillons par des relations entre proxys et échantillons, atténuant ainsi de manière significative le problème d'alignement des paires positives. Des expériences menées sur quatre benchmarks standards démontrent l'efficacité de la méthode proposée. En outre, nous considérons également un scénario plus complexe dans lequel aucun modèle pré-entraîné sur ImageNet n'est disponible. Dans ce cas également, notre méthode montre une performance constamment supérieure.