HyperAIHyperAI
vor 15 Tagen

Beweisbewusste inferentielle Textgenerierung mit vektorquantisierter variationaler Autoencoder

Daya Guo, Duyu Tang, Nan Duan, Jian Yin, Daxin Jiang, Ming Zhou
Beweisbewusste inferentielle Textgenerierung mit vektorquantisierter variationaler Autoencoder
Abstract

Die Generierung inferenzbasierter Texte zu einem Ereignis aus verschiedenen Perspektiven erfordert die Reasoning-Prozesse über verschiedene Kontexte, in denen das Ereignis stattfindet. Bestehende Ansätze ignorieren oft Kontexte, die nicht explizit bereitgestellt werden, was zu einer kontextunabhängigen semantischen Darstellung führt, die die Textgenerierung erschwert. Um dieses Problem anzugehen, schlagen wir einen Ansatz vor, der automatisch Beweise für ein Ereignis aus einer großen Textkorpus findet und diese Beweise nutzt, um die Generierung inferenzbasierter Texte zu leiten. Unser Ansatz arbeitet im Encoder-Decoder-Paradigma und ist mit einem Vector Quantised-Variational Autoencoder (VQ-VAE) ausgestattet, wobei der Encoder Darstellungen aus einer Verteilung über diskreten Variablen erzeugt. Diese diskreten Darstellungen ermöglichen die automatische Auswahl relevanter Beweise, was nicht nur eine beweisbewusste Textgenerierung fördert, sondern auch eine natürliche Methode zur Aufdeckung der zugrunde liegenden Begründungen der Generierung bietet. Unser Ansatz erzielt Spitzenleistungen sowohl auf den Datensätzen Event2Mind als auch ATOMIC. Vor allem stellen wir fest, dass unser Modell mit diskreten Darstellungen gezielt Beweise auswählt, um unterschiedliche inferenzbasierte Texte zu generieren.

Beweisbewusste inferentielle Textgenerierung mit vektorquantisierter variationaler Autoencoder | Neueste Forschungsarbeiten | HyperAI