Textgenerierung aus Wissensgraphen mit Graph-Transformern

Die Erstellung von Texten, die komplexe Ideen über mehrere Sätze hinweg ausdrücken, erfordert eine strukturierte Darstellung ihres Inhalts (Dokumentenplan), aber diese Darstellungen sind manuell zu erstellen aufwendig und teuer. In dieser Arbeit adressieren wir das Problem der Generierung kohärenter Mehrsatztexte aus der Ausgabe eines Informationsextraktionssystems, insbesondere eines Wissensgraphen. Grafische Wissensrepräsentationen sind im Bereich der Informatik weit verbreitet, stellen jedoch aufgrund ihrer nicht-hierarchischen Natur, der Zusammenziehung langer Abhängigkeiten und der strukturellen Vielfalt eine erhebliche Herausforderung für Textgenerierungstechniken dar. Wir führen einen neuen grafentransformierenden Encoder ein, der die relationale Struktur solcher Wissensgraphen nutzen kann, ohne Linearisierungs- oder hierarchische Einschränkungen aufzuerlegen. In einem Encoder-Decoder-Setup integriert, bieten wir ein System zur end-to-end Trainierbarkeit für die Generierung von Graphen zu Texten, das wir auf den Bereich wissenschaftlicher Texte anwenden. Automatische und menschliche Bewertungen zeigen, dass unsere Technik informativere Texte erzeugt, die eine bessere Dokumentstruktur aufweisen als konkurrierende Encoder-Decoder-Methoden.