HyperAIHyperAI

Command Palette

Search for a command to run...

LiDAM : Apprentissage semi-supervisé avec adaptation de domaine localisée et correspondance itérative

Qun Liu Matthew Shreve Raja Bala

Résumé

Bien que les données soient abondantes, leur étiquetage reste coûteux. Les méthodes d’apprentissage semi-supervisé combinent un petit nombre d’échantillons étiquetés avec un grand corpus de données non étiquetées afin d’entraîner efficacement des modèles. Ce papier présente notre méthode proposée, LiDAM, une approche d’apprentissage semi-supervisé fondée à la fois sur l’adaptation de domaine et l’apprentissage auto-ralentissant (self-paced learning). LiDAM commence par effectuer des décalages de domaine localisés afin d’extraire des caractéristiques plus invariantes au domaine, ce qui conduit à des regroupements plus précis et à des pseudo-étiquettes améliorées. Ces pseudo-étiquettes sont ensuite alignées avec les étiquettes de classe réelles de manière auto-ralentissante, via une nouvelle technique itérative d’alignement basée sur la cohérence majoritaire des prédictions à haute confiance. Parallèlement, un classificateur final est entraîné pour prédire les étiquettes véritables, jusqu’à convergence. LiDAM atteint des performances de pointe sur le jeu de données CIFAR-100, surpassant FixMatch (73,50 % contre 71,82 %) avec uniquement 2 500 étiquettes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
LiDAM : Apprentissage semi-supervisé avec adaptation de domaine localisée et correspondance itérative | Articles | HyperAI