MetaCorrection : Correction méta sensible au domaine pour l’adaptation de domaine non supervisée en segmentation sémantique

L’adaptation de domaine non supervisée (UDA) vise à transférer les connaissances depuis un domaine source étiqueté vers un domaine cible non étiqueté. Les approches actuelles basées sur l’auto-entraînement en UDA attribuent des pseudo-étiquettes aux données du domaine cible, qu’elles traitent comme des étiquettes vérité terrain afin d’exploiter pleinement les données non étiquetées du domaine cible pour l’adaptation du modèle. Toutefois, les pseudo-étiquettes générées par un modèle optimisé sur le domaine source contiennent inévitablement du bruit en raison de l’écart de domaine. Pour relever ce défi, nous proposons un cadre appelé MetaCorrection, dans lequel une stratégie d’apprentissage métadonnées sensible au domaine est conçue pour une correction de perte (DMLC) améliorée en UDA pour la segmentation sémantique. Plus précisément, nous modélisons la distribution du bruit des pseudo-étiquettes dans le domaine cible en introduisant une matrice de transition de bruit (NTM), et construisons un jeu de données métadonnées à partir de données source invariantes par rapport au domaine afin d’orienter l’estimation de la NTM. Grâce à la minimisation du risque sur le jeu de données métadonnées, la NTM optimisée permet ainsi de corriger les erreurs présentes dans les pseudo-étiquettes et d’améliorer la capacité de généralisation du modèle sur les données du domaine cible. En tenant compte de l’écart de capacité entre les caractéristiques profondes et superficielles, nous appliquons également la stratégie DMLC proposée pour fournir des signaux de supervision adaptés et compatibles aux différentes couches de caractéristiques, garantissant ainsi une adaptation approfondie. Les résultats expérimentaux abondants mettent en évidence l’efficacité de notre méthode par rapport aux états de l’art existants sur trois benchmarks.