HyperAIHyperAI

Command Palette

Search for a command to run...

ERNIE 2.0 : Un cadre de pré-entraînement continu pour la compréhension linguistique

Yu Sun Shuohuan Wang Yukun Li Shikun Feng Hao Tian Hua Wu Haifeng Wang

Résumé

Récemment, les modèles pré-entraînés ont obtenu des résultats de pointe dans diverses tâches de compréhension linguistique, ce qui indique que la pré-formation sur des corpus à grande échelle peut jouer un rôle crucial dans le traitement du langage naturel. Les procédures actuelles de pré-entraînement se concentrent généralement sur l'entraînement du modèle avec plusieurs tâches simples pour saisir la cooccurrence des mots ou des phrases. Cependant, en plus de la cooccurrence, il existe d'autres informations lexicales, syntaxiques et sémantiques précieuses dans les corpus d'entraînement, telles que les entités nommées, la proximité sémantique et les relations discursives. Afin d'extraire au maximum ces informations lexicales, syntaxiques et sémantiques des corpus d'entraînement, nous proposons un cadre de pré-entraînement continu appelé ERNIE 2.0 (Enhanced Representation through kNowledge Integration Engine), qui construit et apprend progressivement des tâches de pré-entraînement par apprentissage multitâche constant. Les résultats expérimentaux montrent que ERNIE 2.0 surpasses BERT et XLNet dans 16 tâches, y compris les tâches anglaises sur les benchmarks GLUE et plusieurs tâches courantes en chinois. Le code source et les modèles pré-entraînés sont disponibles à l'adresse suivante : https://github.com/PaddlePaddle/ERNIE.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp