HyperAIHyperAI

Command Palette

Search for a command to run...

Analyse de la structure syntaxique avec un encodeur auto-attentionnel

Nikita Kitaev Dan Klein

Résumé

Nous démontrons que le remplacement d'un encodeur LSTM par une architecture auto-attentive peut entraîner des améliorations dans un analyseur de constituants discriminatif de pointe. L'utilisation de l'attention rend explicite la manière dont l'information est propagée entre différentes positions dans la phrase, ce que nous utilisons à la fois pour analyser notre modèle et proposer des améliorations potentielles. Par exemple, nous constatons que la séparation des informations positionnelles et de contenu dans l'encodeur peut conduire à une meilleure précision de l'analyse syntaxique. De plus, nous évaluons différentes approches pour la représentation lexicale. Notre analyseur obtient de nouveaux résultats de pointe pour les modèles individuels formés sur le Penn Treebank : 93,55 F1 sans l'utilisation de données externes, et 95,13 F1 en utilisant des représentations de mots pré-entraînées. Notre analyseur surpasse également les meilleures performances publiées précédemment sur 8 des 9 langues du jeu de données SPMRL.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Analyse de la structure syntaxique avec un encodeur auto-attentionnel | Articles | HyperAI