HyperAIHyperAI

Command Palette

Search for a command to run...

Parsing à base de transition avec Stack-Transformers

Ramon Fernandez Astudillo Miguel Ballesteros Tahira Naseem Austin Blodgett Radu Florian

Résumé

La modélisation de l’état du parseur est essentielle pour obtenir de bons résultats en parsing basé sur des transitions. Les réseaux de neurones récurrents ont considérablement amélioré les performances des systèmes basés sur des transitions en modélisant soit l’état global, comme dans les parseurs stack-LSTM, soit l’état local des caractéristiques contextualisées, comme dans les parseurs Bi-LSTM. Étant donné le succès récent des architectures Transformer dans les systèmes de parsing, ce travail explore des modifications de l’architecture Transformer séquence-à-séquence afin de modéliser soit l’état global, soit l’état local dans le cadre du parsing basé sur des transitions. Nous montrons que des ajustements apportés au mécanisme d’attention croisée du Transformer renforcent significativement les performances sur les tâches de parsing dépendance et de représentation sémantique abstraite (AMR), en particulier pour les modèles plus petits ou en présence de données d’entraînement limitées.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Parsing à base de transition avec Stack-Transformers | Articles | HyperAI