HyperAIHyperAI

Command Palette

Search for a command to run...

Muppet : Représentations massivement multi-tâches avec pré-finetuning

Armen Aghajanyan Anchit Gupta Akshat Shrivastava Xilun Chen Luke Zettlemoyer Sonal Gupta

Résumé

Nous proposons le pré-finetuning, une étape supplémentaire d'apprentissage à grande échelle située entre le pré-entraînement des modèles linguistiques et le finetuning. Le pré-finetuning repose sur un apprentissage multi-tâches massif (environ 50 jeux de données, plus de 4,8 millions d'exemples étiquetés au total) et vise à favoriser l'apprentissage de représentations généralisables à de nombreuses tâches différentes. Nous démontrons que le pré-finetuning améliore de manière cohérente les performances des discriminants pré-entraînés (par exemple RoBERTa) et des modèles de génération (par exemple BART) sur une large gamme de tâches (prédiction de phrases, raisonnement communautaire, compréhension de lecture, etc.), tout en améliorant significativement l'efficacité en échantillons pendant le finetuning. Nous montrons également que l'apprentissage multi-tâches à grande échelle est crucial : le pré-finetuning peut nuire aux performances lorsque peu de tâches sont utilisées, jusqu'à un seuil critique (généralement au-delà de 15), au-delà duquel les performances s'améliorent linéairement avec le nombre de tâches.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp