HyperAIHyperAI

Command Palette

Search for a command to run...

Réexamen des modèles pré-entraînés pour le traitement automatique de la langue chinoise

Yiming Cui Wanxiang Che Ting Liu Bing Qin Shijin Wang Guoping Hu

Résumé

Les représentations bidirectionnelles des encodeurs issues des Transformers (BERT) ont montré d'importants progrès dans diverses tâches de traitement du langage naturel (NLP), et plusieurs variantes ont été proposées pour améliorer encore davantage les performances des modèles de langage pré-entraînés. Dans cet article, nous nous intéressons à la réévaluation des modèles de langage pré-entraînés chinois afin d'examiner leur efficacité dans une langue non anglaise et de mettre à disposition une série de modèles de langage pré-entraînés chinois à la communauté. Nous proposons également un modèle simple mais efficace appelé MacBERT, qui apporte plusieurs améliorations à RoBERTa, en particulier en ce qui concerne la stratégie de masquage qui utilise le masquage linguistique bidirectionnel (MLM) comme correction (Mac). Nous avons mené des expériences approfondies sur huit tâches de NLP chinoises pour réévaluer les modèles de langage pré-entraînés existants ainsi que le MacBERT proposé. Les résultats expérimentaux montrent que MacBERT peut atteindre des performances parmi les meilleures sur de nombreuses tâches de NLP, et nous présentons également une analyse détaillée avec plusieurs observations susceptibles d'aider les recherches futures. Ressources disponibles : https://github.com/ymcui/MacBERT


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp