Résumé de Documents par Extraction Latente Neuronale

Les modèles de résumé extractif nécessitent des étiquettes au niveau des phrases, qui sont généralement créées de manière heuristique (par exemple, avec des méthodes basées sur des règles), étant donné que la plupart des jeux de données de résumé ne disposent que de paires document-résumé. Comme ces étiquettes peuvent être sous-optimales, nous proposons un modèle extractif à variables latentes où les phrases sont considérées comme des variables latentes et les phrases avec des variables activées sont utilisées pour inférer les résumés d'or. Pendant l'entraînement, la perte provient \emph{directement} des résumés d'or. Les expériences menées sur le jeu de données CNN/Dailymail montrent que notre modèle améliore significativement une ligne de base extractive robuste formée à partir d'étiquettes approximées heuristiquement et se compare également favorablement à plusieurs modèles récents.