HyperAIHyperAI

Command Palette

Search for a command to run...

TSDAE : Utilisation d’un Auto-encodeur Débruitant Séquentiel basé sur Transformer pour l’Apprentissage Non Supervisé de Représentations de Phrases

Kexin Wang Nils Reimers Iryna Gurevych

Résumé

L’apprentissage des embeddings de phrases nécessite souvent une grande quantité de données étiquetées. Toutefois, pour la plupart des tâches et domaines, de telles données sont rares et leur création s’avère coûteuse. Dans ce travail, nous présentons une nouvelle méthode non supervisée de pointe, fondée sur des Transformers pré-entraînés et un Auto-encodeur à débruitage séquentiel (TSDAE), qui surpasse les approches précédentes de jusqu’à 6,4 points. Elle parvient à atteindre jusqu’à 93,1 % de la performance des méthodes supervisées spécifiques au domaine. Par ailleurs, nous démontrons que TSDAE constitue une méthode puissante pour l’adaptation de domaine et le pré-entraînement des embeddings de phrases, surpassant significativement d’autres approches telles que le modèle de langage masqué (Masked Language Model). Un défaut crucial des études antérieures réside dans l’évaluation restreinte : la plupart des travaux évaluent principalement la tâche unique de similarité textuelle sémantique (STS), qui ne nécessite aucune connaissance de domaine. Il reste incertain que ces méthodes s’appliquent efficacement à d’autres domaines et tâches. Nous comblons cette lacune en évaluant TSDAE et d’autres approches récentes sur quatre jeux de données provenant de domaines hétérogènes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp