Semantische Graph-Parsing mit rekurrenten neuronalen Netzwerken und DAG-Grammatiken

Semantische Analysen sind gerichtete azyklische Graphen (DAGs), daher sollte die semantische Analyse als Graphenvorhersage modelliert werden. Die Vorhersage von Graphen stellt jedoch erhebliche technische Herausforderungen dar, weshalb es einfacher und üblicher ist, die in semantischen Parsing-Datensätzen gefundenen linearisierten Graphen mit gut verstandenen sequentiellen Modellen vorherzusagen. Der Preis dieser Einfachheit besteht darin, dass die vorhergesagten Zeichenketten möglicherweise keine korrekt strukturierten Graphen sind. Wir stellen rekurrente neuronale DAG-Grammatiken vor, ein graphbewusstes sequentielles Modell, das sicherstellt, dass nur korrekt strukturierte Graphen generiert werden, während es viele der Schwierigkeiten bei der Graphenvorhersage umgeht. Wir testen unser Modell am Parallel Meaning Bank – einer mehrsprachigen semantischen Graphendatenbank. Unser Ansatz liefert wettbewerbsfähige Ergebnisse im Englischen und legt die ersten Ergebnisse für Deutsch, Italienisch und Niederländisch fest.