AMR-Parsing als Graphenprädiktion mit latenter Ausrichtung

Abstrakte Bedeutungsrepräsentationen (ABRs) sind umfassende semantische Repräsentationen auf Satzebene. ABRs stellen Sätze als gewurzelte, beschriftete, gerichtete azyklische Graphen dar. Die ABR-Parsing ist teilweise aufgrund des Mangels an annotierten Zuordnungen zwischen den Knoten in den Graphen und den Wörtern in den entsprechenden Sätzen herausfordernd. Wir stellen einen neuronalen Parser vor, der die Zuordnungen als latente Variablen in einem gemeinsamen Wahrscheinlichkeitsmodell von Konzepten, Relationen und Zuordnungen behandelt. Da die exakte Inferenz die Marginalisierung über die Zuordnungen erfordert und nicht praktikabel ist, verwenden wir das Variations-Autoencoder-Framework und eine kontinuierliche Relaxierung der diskreten Zuordnungen. Wir zeigen, dass ein gemeinsames Modellierung vorteilhaft ist im Vergleich zu einer Pipeline von Zuordnung und Parsing. Der Parser erreicht die besten bisher gemeldeten Ergebnisse am Standardbenchmark (74,4 % bei LDC2016E25).