HyperAIHyperAI
vor 11 Tagen

ReGen: Verstärkendes Lernen für die Text- und Wissensdatenbankgenerierung mithilfe vortrainierter Sprachmodelle

Pierre L. Dognin, Inkit Padhi, Igor Melnyk, Payel Das
ReGen: Verstärkendes Lernen für die Text- und Wissensdatenbankgenerierung mithilfe vortrainierter Sprachmodelle
Abstract

Die automatische Erstellung relevanter Wissensbasen (KBs) aus Text und die Generierung semantisch sinnvoller Texte aus KBs sind seit langem fest etablierte Ziele im Bereich des Maschinellen Lernens. In diesem Artikel stellen wir ReGen vor, ein bidirektionales Generierungsverfahren für Text und Graphen, das auf der Verwendung von Verstärkendem Lernen (Reinforcement Learning, RL) basiert, um die Leistungsfähigkeit zu verbessern. Durch die Linearisierung von Graphen können wir beide Aufgaben unabhängig von der Generierungsrichtung als Sequenz-zu-Sequenz-Generierungsprobleme formulieren, was wiederum die Anwendung von RL für die Sequenztrainierung ermöglicht, bei der das Modell selbst als eigener Kritiker eingesetzt wird – ein Ansatz, der als selbstkritische Sequenztrainierung (Self-Critical Sequence Training, SCST) bekannt ist. Wir präsentieren eine umfassende Untersuchung, die zeigt, dass die Verwendung von RL mittels SCST sowohl bei der Graph- als auch bei der Textgenerierung auf den Datensätzen WebNLG+ 2020 und TekGen Vorteile bringt. Unser System erreicht auf WebNLG+ 2020 Ergebnisse auf aktuellem Stand der Technik und verbessert signifikant die veröffentlichten Ergebnisse der WebNLG 2020+ Challenge sowohl für die Text-zu-Graph- als auch für die Graph-zu-Text-Generierungsaufgaben.

ReGen: Verstärkendes Lernen für die Text- und Wissensdatenbankgenerierung mithilfe vortrainierter Sprachmodelle | Neueste Forschungsarbeiten | HyperAI