Contrôle de la Quantité de Copie Verbatim dans la Résumé Abstrait

Un résumé ne doit pas altérer le sens du texte original. Une des façons les plus efficaces d’y parvenir consiste à augmenter la quantité de copie tout en maintenant la capacité d’abstraction du texte. Les rédacteurs humains peuvent généralement contrôler la copie, produisant ainsi des résumés plus extraitifs ou au contraire plus génératifs, selon les besoins. Toutefois, il reste mal compris si les modèles modernes de résumé abstraitif basés sur des réseaux neuronaux peuvent offrir une flexibilité similaire, c’est-à-dire apprendre à partir d’un unique résumé humain pour générer plusieurs hypothèses de résumé avec des degrés variables de copie mot à mot. Dans cet article, nous proposons un modèle de résumé neuronal capable, en s’appuyant sur un seul résumé humain, de produire une large gamme de résumés allant de résumés purement extraits à des résumés hautement génératifs. Nous formulons la tâche de résumé comme un problème de modélisation du langage et exploitons des mécanismes alternatifs pour générer des hypothèses de résumé. Notre méthode permet un contrôle précis de la copie à la fois durant l’entraînement et pendant le décodage du modèle de résumé neuronal. À travers des expériences étendues, nous démontrons l’importance de notre approche pour réguler la quantité de copie mot à mot, tout en obtenant des résultats compétitifs par rapport à des modèles de référence performants. Une analyse approfondie révèle également des faits intéressants et non évidents.