HyperAIHyperAI

Command Palette

Search for a command to run...

GLUE : Un banc d'essai et une plateforme d'analyse multi-tâches pour la compréhension du langage naturel

Alex Wang¹, Amanpreet Singh¹, Julian Michael², Felix Hill³, Omer Levy² & Samuel R. Bowman¹

Résumé

Pour que la technologie de compréhension du langage naturel (NLU) soit pleinement utile, tant sur le plan pratique qu'en tant qu'objet d'étude scientifique, elle doit être générale : elle doit être capable de traiter le langage de manière non exclusivement adaptée à une tâche ou un ensemble de données spécifique. Dans cette optique, nous présentons le benchmark d'évaluation de la compréhension générale du langage (GLUE), un outil permettant d'évaluer et d'analyser les performances des modèles sur une gamme variée de tâches existantes en NLU. GLUE est indépendant du modèle, mais il encourage le partage des connaissances entre les tâches car certaines tâches disposent de très peu de données d'entraînement. Nous fournissons également une suite de tests diagnostiques élaborés manuellement qui permet une analyse linguistique détaillée des modèles NLU. Nous évaluons des méthodes de base fondées sur les approches actuelles d'apprentissage multi-tâches et de transfert et constatons qu'elles ne donnent pas immédiatement des améliorations substantielles par rapport aux performances cumulées de l'entraînement séparé d'un modèle pour chaque tâche, ce qui laisse entrevoir un potentiel d'amélioration dans le développement de systèmes NLU généraux et robustes.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp