Formation auto-supervisée régularisée par la confiance

Les récentes avancées en adaptation de domaine montrent que l'auto-apprentissage profond représente un moyen puissant pour l'adaptation de domaine non supervisée. Ces méthodes impliquent souvent un processus itératif consistant à prédire sur le domaine cible puis à utiliser les prédictions les plus sûres comme pseudo-étiquettes pour le réapprentissage. Cependant, étant donné que les pseudo-étiquettes peuvent être bruyantes, l'auto-apprentissage peut attribuer une confiance excessive aux mauvaises classes, entraînant des solutions déviées avec des erreurs propagées. Pour résoudre ce problème, nous proposons un cadre d'auto-apprentissage régularisé par la confiance (CRST), formulé comme un auto-apprentissage régularisé. Notre méthode traite les pseudo-étiquettes comme des variables latentes continues optimisées conjointement par une optimisation alternée. Nous proposons deux types de régularisation de confiance : la régularisation d'étiquette (LR) et la régularisation du modèle (MR). CRST-LR génère des pseudo-étiquettes douces tandis que CRST-MR encourage la continuité de la sortie du réseau. Des expériences approfondies sur la classification d'images et la segmentation sémantique montrent que les CRST surpassent leurs homologues non régularisés avec des performances de pointe. Le code et les modèles de cette étude sont disponibles à l'adresse suivante : https://github.com/yzou2/CRST.