Enseignants moyens perturbés et stricts pour la segmentation sémantique semi-supervisée

L’apprentissage par consistance basé sur des perturbations d’images d’entrée, de caractéristiques ou de réseau a démontré des résultats remarquables dans le domaine de la segmentation sémantique semi-supervisée. Toutefois, cette approche peut être gravement affectée par des prédictions inexactes des images non étiquetées lors de l’entraînement. Deux conséquences découlent de ces prédictions erronées : 1) l’entraînement fondé sur la perte d’entropie croisée (CE) « stricte » est susceptible de surajuster les erreurs de prédiction, entraînant un biais de confirmation ; 2) les perturbations appliquées à ces prédictions inexactes utilisent des signaux d’entraînement potentiellement erronés, ce qui détériore l’apprentissage par consistance. Dans cet article, nous abordons le problème de la précision des prédictions des méthodes d’apprentissage par consistance grâce à des extensions novatrices du modèle mean-teacher (MT), incluant un nouvel enseignant auxiliaire et le remplacement de la perte d’erreur quadratique moyenne (MSE) par une perte d’entropie croisée pondérée par la confiance (Conf-CE), plus stricte. La précision accrue de cette modélisation permet d’exploiter une combinaison exigeante de perturbations sur le réseau, les données d’entrée et les caractéristiques afin d’améliorer la généralisation de l’apprentissage par consistance, où les perturbations sur les caractéristiques incluent une nouvelle perturbation adversariale. Les résultats obtenus sur des benchmarks publics montrent que notre approche réalise des améliorations remarquables par rapport aux méthodes SOTA précédentes. Notre code est disponible à l’adresse suivante : https://github.com/yyliu01/PS-MT.