HyperAIHyperAI
il y a 2 mois

Décodage Générateur Récursif Profond pour la Synthèse Textuelle Abstraite

Piji Li; Wai Lam; Lidong Bing; Zihao Wang
Décodage Générateur Récursif Profond pour la Synthèse Textuelle Abstraite
Résumé

Nous proposons un nouveau cadre pour la synthèse textuelle abstraite basé sur un modèle encodeur-décodeur orienté séquence-à-séquence équipé d'un décodeur génératif récurrent profond (DRGN) [Deep Recurrent Generative Decoder].L'information structurale latente implicite dans les résumés cibles est apprise à partir d'un modèle aléatoire latent récurrent afin d'améliorer la qualité des résumés.L'inférence variationnelle neuronale est utilisée pour traiter l'inférence postérieure non tractable des variables latentes récurrentes.Les résumés abstraits sont générés en se basant à la fois sur les variables latentes génératives et sur les états déterministes discriminants.Des expériences approfondies sur plusieurs jeux de données de référence en différentes langues montrent que le DRGN réalise des améliorations par rapport aux méthodes de pointe actuelles.

Décodage Générateur Récursif Profond pour la Synthèse Textuelle Abstraite | Articles de recherche récents | HyperAI