HyperAIHyperAI

Command Palette

Search for a command to run...

BERTje : un modèle BERT néerlandais

Wietse de Vries Andreas van Cranenburgh Arianna Bisazza Tommaso Caselli Gertjan van Noord Malvina Nissim

Résumé

Le modèle pré-entraîné basé sur l'architecture des transformateurs, BERT, a permis d'améliorer les performances de pointe sur de nombreuses tâches de traitement du langage naturel (NLP). En utilisant la même architecture et les mêmes paramètres, nous avons développé et évalué un modèle BERT monolingue néerlandais, baptisé BERTje. Contrairement au modèle multilingue BERT, qui inclut le néerlandais mais est uniquement entraîné sur du texte provenant de Wikipedia, BERTje repose sur un ensemble de données vaste et diversifié de 2,4 milliards de tokens. BERTje surpasser de manière constante le modèle multilingue de taille équivalente sur diverses tâches NLP en aval (identification de part-of-speech, reconnaissance d'entités nommées, étiquetage des rôles sémantiques et analyse de sentiment). Notre modèle pré-entraîné néerlandais BERTje est disponible à l'adresse suivante : https://github.com/wietsedv/bertje.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
BERTje : un modèle BERT néerlandais | Articles | HyperAI