Command Palette
Search for a command to run...
Global normierte transitionsbasierte neuronale Netze
Global normierte transitionsbasierte neuronale Netze
Daniel Andor Chris Alberti David Weiss Aliaksei Severyn Alessandro Presta Kuzman Ganchev Slav Petrov Michael Collins
Zusammenfassung
Wir stellen ein global normiertes, transitionsbasiertes neuronales Netzwerkmodell vor, das die besten aktuellen Ergebnisse in der Wortarten-Tagging, Dependenzanalyse und Satzkompression erzielt. Unser Modell ist ein einfaches Feed-Forward-Neuronales Netzwerk, das auf einem taskspezifischen Transitionsystem arbeitet und dennoch vergleichbare oder bessere Genauigkeiten als rekurrente Modelle erreicht. Wir diskutieren die Bedeutung der globalen im Vergleich zur lokalen Normierung: Ein wesentlicher Erkenntnis ist, dass das Label Bias Problem impliziert, dass global normierte Modelle streng ausdrucksstärker sein können als lokal normierte Modelle.