HyperAIHyperAI

Command Palette

Search for a command to run...

Stufenweises Feinjustieren für die Generierung von Text aus Graphen

Qingyun Wang Semih Yavuz Xi Victoria Lin Heng Ji Nazneen Fatema Rajani

Zusammenfassung

Die Generierung von Text aus Graphen hat durch vortrainierte Sprachmodelle (PLMs) eine bessere Leistung als strukturierte Graphencodierungen erzielt. Allerdings schlagen sie fehl, die Strukturinformationen des Eingabegraphen vollständig zu nutzen. In dieser Arbeit zielen wir darauf ab, die Leistung des vortrainierten Sprachmodells weiter zu verbessern, indem wir ein strukturiertes Graph-to-Text-Modell mit einem zweistufigen Feinjustierungsmechanismus vorschlagen, der das Modell zunächst anhand von Wikipedia-Daten feinjustiert und dann für die Generierung von Text aus Graphen anpasst. Neben der Verwendung traditioneller Token- und Positionsembeddings zur Kodierung des Wissensgraphen (KG) schlagen wir eine neuartige Baumebene-Embedding-Methode vor, um die Interdependenzstrukturen des Eingabegraphen zu erfassen. Dieser neue Ansatz hat die Leistung aller Textgenerationsmetriken für den englischen WebNLG 2017 Datensatz erheblich verbessert.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Stufenweises Feinjustieren für die Generierung von Text aus Graphen | Paper | HyperAI