Réseaux de Neurones à Transitions Normalisés Globalement

Nous présentons un modèle de réseau neuronal basé sur des transitions, normalisé globalement, qui atteint des performances d'état de l'art en étiquetage morphosyntaxique (part-of-speech tagging), analyse de dépendance (dependency parsing) et compression de phrases (sentence compression). Notre modèle est une simple architecture de réseau neuronal à alimentation directe (feed-forward neural network) qui fonctionne sur un système de transitions spécifique à la tâche, tout en obtenant des précisions comparables ou supérieures à celles des modèles récurrents. Nous abordons l'importance de la normalisation globale par rapport à la normalisation locale : une compréhension clé est que le problème du biais des étiquettes implique que les modèles normalisés globalement peuvent être strictement plus expressifs que ceux normalisés localement.