HyperAIHyperAI

Command Palette

Search for a command to run...

Ein Graph-to-Sequenz-Modell für die AMR-zu-Text-Generierung

Linfeng Song Yue Zhang Zhiguo Wang Daniel Gildea

Zusammenfassung

Das Problem der AMR-zu-Text-Generierung besteht darin, einen Text zu erzeugen, der die gleiche Bedeutung wie ein Eingabe-AMR-Graph repräsentiert. Die aktuell beste Methode verwendet ein Sequenz-zu-Sequenz-Modell und nutzt LSTM zur Kodierung einer linearisierten AMR-Struktur. Obwohl es in der Lage ist, nicht-lokale semantische Informationen zu modellieren, kann eine sequenzielle LSTM Informationen aus der AMR-Graphstruktur verlieren und daher bei großen Graphen, die lange Sequenzen ergeben, Herausforderungen aufweisen. Wir stellen ein neuronales Graph-zu-Sequenz-Modell vor, das eine neuartige LSTM-Struktur für die direkte Kodierung von graphbasierten Semantiken verwendet. Bei einem standardisierten Benchmark zeigt unser Modell überlegene Ergebnisse im Vergleich zu den bisherigen Methoden in der Literatur.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp