HyperAIHyperAI

Command Palette

Search for a command to run...

Étiquetage morphosyntaxique avec un modèle Meta-BiLSTM sur des encodages de tokens sensibles au contexte

Bernd Bohnet; Ryan McDonald; Goncalo Simoes; Daniel Andor; Emily Pitler; Joshua Maynez

Résumé

L'essor des réseaux de neurones, et en particulier des réseaux de neurones récurrents, a permis d'obtenir des avancées significatives dans la précision du marquage des classes grammaticales (part-of-speech tagging). Une caractéristique commune à ces modèles est la présence d'encodages initiaux riches pour les mots. Ces encodages sont généralement composés d'une représentation récurrente basée sur les caractères, associée à des plongements de mots appris et pré-entraînés. Cependant, ces encodages ne prennent pas en compte un contexte plus large qu'un seul mot, et c'est seulement au travers des couches récurrentes ultérieures que l'information sur les mots ou les sous-mots interagit. Dans cet article, nous examinons des modèles utilisant des réseaux de neurones récurrents avec un contexte au niveau de la phrase pour les représentations initiales basées sur les caractères et les mots. Nous montrons en particulier que des résultats optimaux sont obtenus en intégrant ces représentations sensibles au contexte par une formation synchronisée avec un méta-modèle qui apprend à combiner leurs états. Nous présentons des résultats sur le marquage des classes grammaticales et la morphologie, avec des performances de pointe sur plusieurs langues.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Étiquetage morphosyntaxique avec un modèle Meta-BiLSTM sur des encodages de tokens sensibles au contexte | Articles | HyperAI