Génération de Texte Pratiquement Informatif

Nous améliorons l'informationnel des modèles pour la génération de texte conditionnelle en utilisant des techniques issues de la pragmatique computationnelle. Ces techniques formulent la production linguistique comme un jeu entre locuteurs et auditeurs, dans lequel un locuteur doit générer un texte de sortie que l'auditeur peut utiliser pour identifier correctement l'entrée d'origine décrite par ce texte. Bien que ces approches soient largement utilisées en psychologie cognitive et dans l'apprentissage de langages ancrés, elles ont reçu moins d'attention pour les tâches plus standard de génération de langage. Nous examinons deux méthodes de modélisation pragmatique pour la génération de texte : une où la pragmatique est imposée par la préservation de l'information, et une autre où elle est imposée par une modélisation explicite des distracteurs (distractors). Nous constatons que ces méthodes améliorent les performances des systèmes existants robustes pour le résumé abstraitif et la génération à partir de représentations structurées du sens.