Command Palette
Search for a command to run...
Réseaux de Neurones à Transitions Normalisés Globalement
Réseaux de Neurones à Transitions Normalisés Globalement
Daniel Andor Chris Alberti David Weiss Aliaksei Severyn Alessandro Presta Kuzman Ganchev Slav Petrov Michael Collins
Résumé
Nous présentons un modèle de réseau neuronal basé sur des transitions, normalisé globalement, qui atteint des performances d'état de l'art en étiquetage morphosyntaxique (part-of-speech tagging), analyse de dépendance (dependency parsing) et compression de phrases (sentence compression). Notre modèle est une simple architecture de réseau neuronal à alimentation directe (feed-forward neural network) qui fonctionne sur un système de transitions spécifique à la tâche, tout en obtenant des précisions comparables ou supérieures à celles des modèles récurrents. Nous abordons l'importance de la normalisation globale par rapport à la normalisation locale : une compréhension clé est que le problème du biais des étiquettes implique que les modèles normalisés globalement peuvent être strictement plus expressifs que ceux normalisés localement.