HyperAIHyperAI

Command Palette

Search for a command to run...

Entailment en tant que apprenant à few-shot

Sinong Wang; Han Fang; Madian Khabsa; Hanzi Mao; Hao Ma

Résumé

Les grands modèles de langage pré-entraînés (LM) ont démontré une capacité remarquable à apprendre avec peu d'exemples. Cependant, leur succès repose largement sur l'augmentation des paramètres du modèle à un niveau qui rend difficile leur entraînement et leur déploiement. Dans cet article, nous proposons une nouvelle approche nommée EFL, capable de transformer les petits modèles de langage en meilleurs apprenants avec peu d'exemples. L'idée clé de cette approche consiste à reformuler une tâche potentielle de traitement du langage naturel (NLP) en une tâche d'entailment, puis à affiner le modèle avec aussi peu que 8 exemples. Nous montrons également que notre méthode proposée peut être : (i) naturellement combinée avec une méthode d'augmentation de données basée sur un apprentissage contrastif non supervisé ; (ii) facilement étendue à l'apprentissage avec peu d'exemples dans plusieurs langues. Une évaluation systématique sur 18 tâches standard de NLP démontre que cette approche améliore les méthodes existantes d'apprentissage avec peu d'exemples (SOTA) de 12 %, et offre des performances compétitives en apprentissage avec peu d'exemples comparables à celles des modèles 500 fois plus grands, comme GPT-3.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp