Apprentissage contrastif probabiliste pour l’adaptation de domaine

L’apprentissage contrastif a démontré un succès remarquable dans l’amélioration de la discriminabilité des caractéristiques pour diverses tâches visuelles de manière auto-supervisée, mais le paradigme classique (caractéristiques + normalisation $\ell_{2}$) présente des bénéfices limités lorsqu’il est appliqué à l’adaptation de domaine. Nous constatons que ce phénomène est principalement dû au fait que les poids de classe (poids de la couche fully connected finale) sont ignorés dans le processus d’optimisation de l’adaptation de domaine, ce qui rend difficile la mise en cluster des caractéristiques autour des poids de classe correspondants. Pour résoudre ce problème, nous proposons une méthode \emph{simple mais puissante}, appelée Apprentissage Contrastif Probabiliste (PCL), qui dépasse le paradigme classique en supprimant la normalisation $\ell_{2}$ et en remplaçant les caractéristiques par des probabilités. PCL permet de guider la distribution de probabilité vers une configuration one-hot, minimisant ainsi l’écart entre les caractéristiques et les poids de classe. Nous menons des expériences étendues pour valider l’efficacité de PCL, observant des améliorations de performance cohérentes sur cinq tâches : adaptation de domaine non supervisée/semi-supervisée (UDA/SSDA), apprentissage semi-supervisé (SSL), détection UDA et segmentation sémantique. Notamment, pour la segmentation sémantique UDA sur SYNTHIA, PCL dépasse de plus de 2 % le modèle sophistiqué CPSL-D en termes de moyenne d’IoU, tout en nécessitant un coût d’entraînement bien plus faible (PCL : 1×3090, 5 jours vs CPSL-D : 4×V100, 11 jours). Le code est disponible à l’adresse suivante : https://github.com/ljjcoder/Probabilistic-Contrastive-Learning.