HyperAIHyperAI

Command Palette

Search for a command to run...

Strukturelle Informationsbewahrung für Graph-to-Text-Generierung

Linfeng Song Ante Wang Jinsong Su Yue Zhang Kun Xu Yubin Ge Dong Yu

Zusammenfassung

Die Aufgabe der Graph-zu-Text-Generierung zielt darauf ab, Sätze zu erzeugen, die die Bedeutung eingehender Graphen bewahren. Als ein wesentlicher Mangel aktueller State-of-the-Art-Modelle besteht die Gefahr, dass sie strukturelle Kerninformationen der Eingabegraphen durcheinanderbringen oder sogar verlieren, wenn sie Ausgaben generieren. Wir schlagen vor, dieses Problem durch die Nutzung reicherer Trainingssignale anzugehen, die unser Modell dabei unterstützen, die Eingabedaten zu bewahren. Insbesondere führen wir zwei Arten von Autoencoding-Verlusten ein, wobei jeder Verlust sich jeweils auf einen unterschiedlichen Aspekt (auch „Ansichten“ genannt) des Eingabegraphen konzentriert. Diese Verluste werden anschließend rückwärts durch das Netzwerk propagiert, um unser Modell über ein Multi-Task-Lernverfahren besser zu kalibrieren. Experimente auf zwei Benchmarks für die Graph-zu-Text-Generierung belegen die Wirksamkeit unseres Ansatzes gegenüber einem State-of-the-Art-Baseline. Unser Code ist unter \url{http://github.com/Soistesimmer/AMR-multiview} verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp