vor 2 Monaten
Global normierte transitionsbasierte neuronale Netze
Daniel Andor; Chris Alberti; David Weiss; Aliaksei Severyn; Alessandro Presta; Kuzman Ganchev; Slav Petrov; Michael Collins

Abstract
Wir stellen ein global normiertes, transitionsbasiertes neuronales Netzwerkmodell vor, das die besten aktuellen Ergebnisse in der Wortarten-Tagging, Dependenzanalyse und Satzkompression erzielt. Unser Modell ist ein einfaches Feed-Forward-Neuronales Netzwerk, das auf einem taskspezifischen Transitionsystem arbeitet und dennoch vergleichbare oder bessere Genauigkeiten als rekurrente Modelle erreicht. Wir diskutieren die Bedeutung der globalen im Vergleich zur lokalen Normierung: Ein wesentlicher Erkenntnis ist, dass das Label Bias Problem impliziert, dass global normierte Modelle streng ausdrucksstärker sein können als lokal normierte Modelle.