HyperAIHyperAI
vor 2 Monaten

Strukturierte Ausbildung für neurale Netzwerk-basierte Übergangsparser

David Weiss; Chris Alberti; Michael Collins; Slav Petrov
Strukturierte Ausbildung für neurale Netzwerk-basierte Übergangsparser
Abstract

Wir präsentieren eine strukturierte Perzeptron-Trainingsmethode für neurale Netzwerke basierend auf Übergangsmodellen für die Abhängigkeitsanalyse. Die neuronale Netzwerkrepräsentation wird unter Verwendung eines goldenen Korpus erlernt, der durch eine große Anzahl automatisch analysierter Sätze ergänzt wird. Unter dieser festgelegten Netzwerkrepräsentation lernen wir eine abschließende Schicht mit dem strukturierten Perzeptron und der Strahlensuchdekodierung (beam-search decoding). Auf dem Penn Treebank erreicht unser Parser eine Genauigkeit von 94,26 % bei nicht etikettierten und 92,41 % bei etikettierten Abhängigkeiten, was nach unserem Wissen die beste Genauigkeit für Stanford-Abhängigkeiten bislang ist. Wir führen zudem eine detaillierte ablativen Analyse durch, um zu bestimmen, welche Aspekte unseres Modells die größten Genauigkeitsverbesserungen liefern.

Strukturierte Ausbildung für neurale Netzwerk-basierte Übergangsparser | Neueste Forschungsarbeiten | HyperAI