HyperAIHyperAI

Command Palette

Search for a command to run...

Strukturelle neurale Encoder für die AMR-zu-Text-Generierung

Marco Damonte Shay B. Cohen

Zusammenfassung

Die AMR-to-Text-Generierung ist ein Problem, das der NLP-Gemeinschaft kürzlich vorgestellt wurde, bei dem das Ziel darin besteht, Sätze aus Abstract Meaning Representation (AMR)-Graphen zu generieren. Sequenz-zu-Sequenz-Modelle können hierfür eingesetzt werden, indem die AMR-Graphen in Zeichenketten umgewandelt werden. Der direkte Umgang mit Graphen erfordert jedoch die Verwendung von Graph-zu-Sequenz-Modellen, die den AMR-Graph in eine Vektordarstellung kodieren. Solche Kodierungen haben sich in der Vergangenheit als nützlich erwiesen und ermöglichen im Gegensatz zur sequentiellen Kodierung die explizite Erfassung von Reentranzstrukturen in den AMR-Graphen. Wir untersuchen den Einfluss von Reentrancen (Knoten mit mehreren Elternknoten) auf die AMR-to-Text-Generierung, indem wir Graphenkodierer mit Baumkodierern vergleichen, bei denen Reentrancen nicht erhalten bleiben. Wir zeigen, dass Verbesserungen bei der Behandlung von Reentrancen und langreichweitigen Abhängigkeiten zu höheren Gesamtwerten für Graphenkodierer beitragen. Unser bestes Modell erreicht einen BLEU-Wert von 24,40 auf LDC2015E86 und übertrifft damit den aktuellen Stand der Technik um 1,1 Punkte sowie einen BLEU-Wert von 24,54 auf LDC2017T10 und übertrifft damit den aktuellen Stand der Technik um 1,24 Punkte.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Strukturelle neurale Encoder für die AMR-zu-Text-Generierung | Paper | HyperAI