HyperAIHyperAI

Command Palette

Search for a command to run...

UDALM : Adaptation de domaine non supervisée par apprentissage par modélisation linguistique

Constantinos Karouzos Georgios Paraskevopoulos Alexandros Potamianos

Résumé

Dans ce travail, nous explorons l’adaptation de domaine non supervisée (UDA) des modèles linguistiques préentraînés pour des tâches en aval. Nous proposons UDALM, une procédure d’ajustage fin (fine-tuning) basée sur une perte combinée de classification et de modèle de langage masqué, permettant une adaptation robuste et efficace en termes d’échantillons à la distribution du domaine cible. Nos expériences montrent que la performance des modèles entraînés avec cette perte combinée augmente avec la quantité de données disponibles pour le domaine cible, et que cette perte peut être efficacement utilisée comme critère d’arrêt durant l’entraînement en UDA. En outre, nous examinons la relation entre la distance A et l’erreur sur le domaine cible, tout en explorant certaines limitations de l’approche d’entraînement adversarial par domaine. Notre méthode est évaluée sur douze paires de domaines du jeu de données Amazon Reviews Sentiment, atteignant une précision de 91,74 %, soit une amélioration absolue de 1,11 % par rapport à l’état de l’art.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp