HyperAIHyperAI

Command Palette

Search for a command to run...

CLEAR : Apprentissage contrastif pour la représentation de phrases

Zhuofeng Wu Sinong Wang Jiatao Gu Madian Khabsa Fei Sun Hao Ma

Résumé

Les modèles linguistiques pré-entraînés ont démontré leur capacité unique à capturer des caractéristiques linguistiques implicites. Toutefois, la plupart des approches d'entraînement préalable se concentrent sur des objectifs au niveau des mots, tandis que les objectifs au niveau des phrases sont rarement explorés. Dans cet article, nous proposons CLEAR (Contrastive LEArning for sentence Representation), une méthode qui utilise plusieurs stratégies d'augmentation au niveau des phrases afin d'apprendre une représentation de phrase invariante au bruit. Ces techniques d'augmentation incluent la suppression de mots et d'expressions, le réarrangement et la substitution. En outre, nous menons une série d'expériences approfondies afin d’identifier les raisons clés qui rendent l’apprentissage contrastif efficace. Nous observons que différentes augmentations de phrases pendant l’entraînement préalable entraînent des améliorations de performance variées sur diverses tâches en aval. Notre approche s'avère supérieure à plusieurs méthodes existantes sur les benchmarks SentEval et GLUE.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
CLEAR : Apprentissage contrastif pour la représentation de phrases | Articles | HyperAI