LiDAM : Apprentissage semi-supervisé avec adaptation de domaine localisée et correspondance itérative

Bien que les données soient abondantes, leur étiquetage reste coûteux. Les méthodes d’apprentissage semi-supervisé combinent un petit nombre d’échantillons étiquetés avec un grand corpus de données non étiquetées afin d’entraîner efficacement des modèles. Ce papier présente notre méthode proposée, LiDAM, une approche d’apprentissage semi-supervisé fondée à la fois sur l’adaptation de domaine et l’apprentissage auto-ralentissant (self-paced learning). LiDAM commence par effectuer des décalages de domaine localisés afin d’extraire des caractéristiques plus invariantes au domaine, ce qui conduit à des regroupements plus précis et à des pseudo-étiquettes améliorées. Ces pseudo-étiquettes sont ensuite alignées avec les étiquettes de classe réelles de manière auto-ralentissante, via une nouvelle technique itérative d’alignement basée sur la cohérence majoritaire des prédictions à haute confiance. Parallèlement, un classificateur final est entraîné pour prédire les étiquettes véritables, jusqu’à convergence. LiDAM atteint des performances de pointe sur le jeu de données CIFAR-100, surpassant FixMatch (73,50 % contre 71,82 %) avec uniquement 2 500 étiquettes.