HyperAIHyperAI
vor 2 Monaten

Ein Graph-to-Sequenz-Modell für die AMR-zu-Text-Generierung

Linfeng Song; Yue Zhang; Zhiguo Wang; Daniel Gildea
Ein Graph-to-Sequenz-Modell für die AMR-zu-Text-Generierung
Abstract

Das Problem der AMR-zu-Text-Generierung besteht darin, einen Text zu erzeugen, der die gleiche Bedeutung wie ein Eingabe-AMR-Graph repräsentiert. Die aktuell beste Methode verwendet ein Sequenz-zu-Sequenz-Modell und nutzt LSTM zur Kodierung einer linearisierten AMR-Struktur. Obwohl es in der Lage ist, nicht-lokale semantische Informationen zu modellieren, kann eine sequenzielle LSTM Informationen aus der AMR-Graphstruktur verlieren und daher bei großen Graphen, die lange Sequenzen ergeben, Herausforderungen aufweisen. Wir stellen ein neuronales Graph-zu-Sequenz-Modell vor, das eine neuartige LSTM-Struktur für die direkte Kodierung von graphbasierten Semantiken verwendet. Bei einem standardisierten Benchmark zeigt unser Modell überlegene Ergebnisse im Vergleich zu den bisherigen Methoden in der Literatur.

Ein Graph-to-Sequenz-Modell für die AMR-zu-Text-Generierung | Neueste Forschungsarbeiten | HyperAI