HyperAIHyperAI
vor 2 Monaten

Tabellen-zu-Text-Generierung durch strukturbewusstes Seq2seq-Lernen

Tianyu Liu; Kexiang Wang; Lei Sha; Baobao Chang; Zhifang Sui
Tabellen-zu-Text-Generierung durch strukturbewusstes Seq2seq-Lernen
Abstract

Die Table-to-Text-Generierung zielt darauf ab, eine Beschreibung für eine faktische Tabelle zu erstellen, die als Menge von Feld-Wert-Einträgen betrachtet werden kann. Um sowohl den Inhalt als auch die Struktur einer Tabelle zu kodieren, schlagen wir ein neuartiges strukturbewusstes Seq2Seq-Architekturmodell vor, das aus einem Feldgatter-Encoder und einem Beschreibungsgenerator mit doppelter Aufmerksamkeit besteht. Im Kodierungsprozess aktualisieren wir das Zellgedächtnis der LSTM-Einheit durch ein Feldgatter und dessen entsprechenden Feldwert, um Informationen über die Felder in die Tabellenrepräsentation einzubeziehen. Im Dekodierungsprozess wird ein Mechanismus der doppelten Aufmerksamkeit vorgeschlagen, der aus Wortaufmerksamkeit und Feldaufmerksamkeit besteht, um die semantische Relevanz zwischen der generierten Beschreibung und der Tabelle zu modellieren. Wir führen Experimente auf dem \texttt{WIKIBIO}-Datensatz durch, der über 700.000 Biografien und zugehörige Infoboxen aus Wikipedia enthält. Die Aufmerksamkeitsvisualisierungen und Fallstudien zeigen, dass unser Modell in der Lage ist, kohärente und informativere Beschreibungen basierend auf einem umfassenden Verständnis sowohl des Inhalts als auch der Struktur einer Tabelle zu generieren. Automatische Bewertungen zeigen ebenfalls, dass unser Modell die Baseline-Modelle erheblich übertreffen kann. Der Quellcode für diese Arbeit ist unter https://github.com/tyliupku/wiki2bio verfügbar.

Tabellen-zu-Text-Generierung durch strukturbewusstes Seq2seq-Lernen | Neueste Forschungsarbeiten | HyperAI