Strukturelle Informationsbewahrung für Graph-to-Text-Generierung

Die Aufgabe der Graph-zu-Text-Generierung zielt darauf ab, Sätze zu erzeugen, die die Bedeutung eingehender Graphen bewahren. Als ein wesentlicher Mangel aktueller State-of-the-Art-Modelle besteht die Gefahr, dass sie strukturelle Kerninformationen der Eingabegraphen durcheinanderbringen oder sogar verlieren, wenn sie Ausgaben generieren. Wir schlagen vor, dieses Problem durch die Nutzung reicherer Trainingssignale anzugehen, die unser Modell dabei unterstützen, die Eingabedaten zu bewahren. Insbesondere führen wir zwei Arten von Autoencoding-Verlusten ein, wobei jeder Verlust sich jeweils auf einen unterschiedlichen Aspekt (auch „Ansichten“ genannt) des Eingabegraphen konzentriert. Diese Verluste werden anschließend rückwärts durch das Netzwerk propagiert, um unser Modell über ein Multi-Task-Lernverfahren besser zu kalibrieren. Experimente auf zwei Benchmarks für die Graph-zu-Text-Generierung belegen die Wirksamkeit unseres Ansatzes gegenüber einem State-of-the-Art-Baseline. Unser Code ist unter \url{http://github.com/Soistesimmer/AMR-multiview} verfügbar.