HyperAIHyperAI
vor 13 Tagen

Strukturelle Informationsbewahrung für Graph-to-Text-Generierung

Linfeng Song, Ante Wang, Jinsong Su, Yue Zhang, Kun Xu, Yubin Ge, Dong Yu
Strukturelle Informationsbewahrung für Graph-to-Text-Generierung
Abstract

Die Aufgabe der Graph-zu-Text-Generierung zielt darauf ab, Sätze zu erzeugen, die die Bedeutung eingehender Graphen bewahren. Als ein wesentlicher Mangel aktueller State-of-the-Art-Modelle besteht die Gefahr, dass sie strukturelle Kerninformationen der Eingabegraphen durcheinanderbringen oder sogar verlieren, wenn sie Ausgaben generieren. Wir schlagen vor, dieses Problem durch die Nutzung reicherer Trainingssignale anzugehen, die unser Modell dabei unterstützen, die Eingabedaten zu bewahren. Insbesondere führen wir zwei Arten von Autoencoding-Verlusten ein, wobei jeder Verlust sich jeweils auf einen unterschiedlichen Aspekt (auch „Ansichten“ genannt) des Eingabegraphen konzentriert. Diese Verluste werden anschließend rückwärts durch das Netzwerk propagiert, um unser Modell über ein Multi-Task-Lernverfahren besser zu kalibrieren. Experimente auf zwei Benchmarks für die Graph-zu-Text-Generierung belegen die Wirksamkeit unseres Ansatzes gegenüber einem State-of-the-Art-Baseline. Unser Code ist unter \url{http://github.com/Soistesimmer/AMR-multiview} verfügbar.

Strukturelle Informationsbewahrung für Graph-to-Text-Generierung | Neueste Forschungsarbeiten | HyperAI