HyperAIHyperAI

Command Palette

Search for a command to run...

RobeCzech : Czech RoBERTa, un modèle de représentation linguistique contextuelle monolingue

Milan Straka Jakub Náplava Jana Straková David Samuel

Résumé

Nous présentons RobeCzech, un modèle de représentation linguistique RoBERTa monolingue entraîné sur des données en tchèque. RoBERTa est une méthode d'entraînement préalable basée sur le Transformer, optimisée de manière robuste. Nous démontrons que RobeCzech surpasse significativement les modèles de représentation linguistique contextuelle de taille équivalente, tant multilingues que spécifiquement entraînés sur le tchèque, et atteint l'état de l'art dans toutes les cinq tâches d'analyse linguistique naturelle évaluées, en établissant des résultats de pointe dans quatre d'entre elles. Le modèle RobeCzech est mis à disposition publiquement à l'adresse suivante : https://hdl.handle.net/11234/1-3691 et https://huggingface.co/ufal/robeczech-base.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
RobeCzech : Czech RoBERTa, un modèle de représentation linguistique contextuelle monolingue | Articles | HyperAI