HyperAIHyperAI
il y a 2 mois

Formation Structurée pour le Parsing Basé sur les Transitions dans les Réseaux de Neurones

David Weiss; Chris Alberti; Michael Collins; Slav Petrov
Formation Structurée pour le Parsing Basé sur les Transitions dans les Réseaux de Neurones
Résumé

Nous présentons une formation structurée du perceptron pour l'analyse de dépendance basée sur les transitions dans les réseaux de neurones. Nous apprenons la représentation du réseau neuronal à partir d'un corpus d'or enrichi par un grand nombre de phrases analysées automatiquement. Étant donné cette représentation de réseau fixe, nous apprenons une couche finale en utilisant le perceptron structuré avec une décodification par recherche en faisceau (beam-search). Sur le Penn Treebank, notre analyseur atteint une précision d'attachement non étiquetée de 94,26 % et une précision d'attachement étiquetée de 92,41 %, ce qui, à notre connaissance, est la meilleure précision sur les Dépendances de Stanford à ce jour. Nous fournissons également une analyse ablatrice approfondie pour déterminer quels aspects de notre modèle apportent les plus grands gains en termes de précision.

Formation Structurée pour le Parsing Basé sur les Transitions dans les Réseaux de Neurones | Articles de recherche récents | HyperAI