Résumé de texte abstrait à l'aide de RNNs sequence-to-sequence et au-delà

Dans cette étude, nous modélisons la synthèse textuelle abstraite à l'aide de réseaux neuronaux récurrents (RNR) encodeur-décodeur avec mécanisme d'attention, et nous démontrons qu'ils atteignent des performances de pointe sur deux corpus différents. Nous proposons plusieurs modèles novateurs qui s'attaquent à des problèmes cruciaux dans la synthèse textuelle, problèmes que l'architecture de base ne modélise pas suffisamment bien, tels que la modélisation des mots-clés, la capture de la hiérarchie de la structure phrase-mot et l'émission de mots rares ou inconnus lors de l'entraînement. Notre travail montre que nombre de nos modèles proposés contribuent à une amélioration supplémentaire des performances. Nous proposons également un nouveau jeu de données composé de résumés multisentences, et nous établissons des références de performance pour les recherches futures.