JointGT: Graph-Text Joint Representation Learning for Text Generation from Knowledge Graphs Übersetzung: JointGT: Gemeinsames Lernverfahren für die Darstellung von Graphen und Texten zur Textgenerierung aus Wissensgraphen

Bestehende vortrainierte Modelle für die Generierung von Text aus Wissensgraphen (KG-to-Text) feinjustieren einfach nur textbasierte vortrainierte Modelle wie BART oder T5 an KG-to-Text-Datensätzen, wobei sie während der Kodierung weitgehend die Graphstruktur außer Acht lassen und präzise Vortrainingsaufgaben zur expliziten Modellierung von Graph-Text-Ausrichtungen fehlen. Um diese Probleme zu lösen, schlagen wir ein Modell für die gemeinsame Repräsentationslernen von Graphen und Texten vor, das JointGT genannt wird. Während der Kodierung haben wir ein strukturbewusstes semantisches Aggregationsmodul entwickelt, das in jede Transformer-Schicht eingefügt wird, um die Graphstruktur zu bewahren. Darüber hinaus schlagen wir drei neue Vortrainingsaufgaben vor, um die Graph-Text-Ausrichtung explizit zu verbessern: jeweilige Text-/Graph-Rekonstruktion und Graph-Text-Ausrichtung im Einbettungsraum durch Optimal Transport. Experimente zeigen, dass JointGT auf verschiedenen KG-to-Text-Datensätzen neue Standarts der Technik erzielt.