Génération de texte inférentiel consciente des preuves avec un Autoencodeur Variationnel à Quantification Vectorielle

La génération de textes inférentiels à propos d’un événement depuis différentes perspectives exige un raisonnement sur divers contextes dans lesquels cet événement peut se produire. Les travaux existants ignorent généralement le contexte non explicitement fourni, conduisant à une représentation sémantique indépendante du contexte, qui peine à soutenir efficacement la génération. Pour remédier à ce problème, nous proposons une approche qui permet d’extraire automatiquement des preuves relatives à un événement à partir d’un grand corpus de textes, et d’utiliser ces preuves pour guider la génération de textes inférentiels. Notre méthode fonctionne selon un cadre encodeur-décodeur et intègre un Vector Quantised-Variational Autoencoder (VQ-VAE), dont l’encodeur produit des représentations issues d’une distribution sur des variables discrètes. Ces représentations discrètes permettent de sélectionner automatiquement les preuves pertinentes, ce qui facilite non seulement la génération consciente des preuves, mais offre également un moyen naturel de révéler les raisonnements sous-jacents à la génération. Notre approche atteint des performances de pointe sur les deux jeux de données Event2Mind et ATOMIC. Plus important encore, nous observons qu’avec des représentations discrètes, notre modèle utilise de manière sélective les preuves pour générer différents textes inférentiels.