HyperAIHyperAI
vor 2 Monaten

Modellierung globaler und lokaler Knotenkontexte für die Textgenerierung aus Wissensgraphen

Leonardo F. R. Ribeiro; Yue Zhang; Claire Gardent; Iryna Gurevych
Modellierung globaler und lokaler Knotenkontexte für die Textgenerierung aus Wissensgraphen
Abstract

Kürzlich entwickelte Graph-to-Text-Modelle generieren Text aus graphbasierten Daten, indem sie entweder globale oder lokale Aggregation verwenden, um Knotenrepräsentationen zu lernen. Die globale Knotenkodierung ermöglicht eine explizite Kommunikation zwischen zwei entfernten Knoten und vernachlässigt dabei die Graphentopologie, da alle Knoten direkt miteinander verbunden sind. Im Gegensatz dazu berücksichtigt die lokale Knotenkodierung die Beziehungen zwischen benachbarten Knoten und erfasst somit die Graphstruktur, kann aber langreichweitige Beziehungen übersehen. In dieser Arbeit kombinieren wir beide Kodierungsstrategien und schlagen neue neuronale Modelle vor, die einen Eingabegraphen kodieren, indem sie sowohl globale als auch lokale Knotenkontexte integrieren, um bessere kontextualisierte Knoteneinbettungen zu lernen. In unseren Experimenten zeigen wir, dass unsere Ansätze zu signifikanten Verbesserungen auf zwei Graph-to-Text-Datensätzen führen: Wir erreichen BLEU-Werte von 18,01 auf dem AGENDA-Datensatz und 63,69 auf dem WebNLG-Datensatz für gesehene Kategorien, was jeweils 3,7 und 3,1 Punkte besser ist als die derzeit besten Modelle.

Modellierung globaler und lokaler Knotenkontexte für die Textgenerierung aus Wissensgraphen | Neueste Forschungsarbeiten | HyperAI