HyperAIHyperAI
vor 2 Monaten

Daten-zu-Text-Generierung mit Entitätsmodellierung

Ratish Puduppully; Li Dong; Mirella Lapata
Daten-zu-Text-Generierung mit Entitätsmodellierung
Abstract

Neuere Ansätze zur Daten-zu-Text-Generierung haben dank der Nutzung von umfangreichen Datensätzen und der Anwendung von neuronalen Netzarchitekturen, die von Anfang bis Ende trainiert werden, große Erfolgsaussichten gezeigt. Diese Modelle basieren auf Repräsentationslernen, um den Inhalt angemessen auszuwählen, kohärent zu strukturieren und grammatikalisch zu verbalisieren, wobei Entitäten lediglich als Vokabularzeichen behandelt werden. In dieser Arbeit schlagen wir eine entitätszentrierte neuronale Architektur für die Daten-zu-Text-Generierung vor. Unser Modell erstellt entitätsspezifische Repräsentationen, die dynamisch aktualisiert werden. Der Text wird unter Berücksichtigung der Eingangsdaten und der Entitäts-Speicherrepräsentationen mit hierarchischer Aufmerksamkeit in jedem Zeitschritt generiert. Wir präsentieren Experimente am RotoWire-Benchmark sowie an einem neuen Datensatz im Baseballbereich, den wir erstellen (fünfmal so groß wie der RotoWire-Datensatz). Unsere Ergebnisse zeigen, dass das vorgeschlagene Modell in automatischen und menschlichen Bewertungen wettbewerbsfähige Baseline-Modelle übertrifft.