Résumé Abstrait Orienté par la Requête : Intégration de la Pertinence de la Requête, de la Couverture Multidocument et des Contraintes de Longueur du Résumé dans les Modèles seq2seq

Le résumé axé sur la requête (QFS) a principalement été abordé en utilisant des méthodes extractives. Ces méthodes produisent cependant un texte souffrant d'une faible cohérence. Nous examinons comment les méthodes abstraites peuvent être appliquées au QFS pour surmonter ces limitations. Les développements récents dans les modèles de séquence à séquence basés sur l'attention neuronale ont conduit à des résultats de pointe dans la tâche de résumé générique abstrait d'un seul document. De tels modèles sont formés selon une méthode bout à bout sur de grandes quantités de données d'entraînement. Nous abordons trois aspects pour rendre le résumé abstrait applicable au QFS : (a) puisqu'il n'existe pas de données d'entraînement, nous intégrons la pertinence de la requête dans un modèle abstrait pré-entraîné ; (b) puisque les modèles abstraits existants sont formés dans un contexte mono-documentaire, nous concevons une méthode itérative pour intégrer ces modèles aux exigences multi-documentaires du QFS ; (c) les modèles abstraits que nous adaptons sont formés pour générer des textes d'une longueur spécifique (environ 100 mots), alors que notre objectif est de produire des sorties d'une taille différente (environ 250 mots) ; nous concevons une méthode pour adapter la taille cible des résumés générés à un ratio de taille donné. Nous comparons notre méthode (Attention Sensible à la Pertinence pour le QFS) aux méthodes extractives de base et à diverses façons de combiner les modèles abstraits sur les jeux de données QFS du DUC et démontrons des améliorations solides en termes de performance ROUGE.