HyperAIHyperAI
il y a 2 mois

BanditSum : Résumé extractif en tant que bandit contextuel

Yue Dong; Yikang Shen; Eric Crawford; Herke van Hoof; Jackie Chi Kit Cheung
BanditSum : Résumé extractif en tant que bandit contextuel
Résumé

Dans cette étude, nous proposons une nouvelle méthode pour entraîner des réseaux de neurones à effectuer la synthèse extractive mono-document sans utiliser des étiquettes extractives générées heuristiquement. Nous appelons notre approche BanditSum car elle traite la synthèse extractive comme un problème de bandit contextuel (CB), où le modèle reçoit un document à résumer (le contexte) et choisit une séquence de phrases à inclure dans le résumé (l'action). Un algorithme d'apprentissage par renforcement basé sur le gradient de politique est utilisé pour entraîner le modèle à sélectionner des séquences de phrases qui maximisent le score ROUGE. Nous menons une série d'expériences démontrant que BanditSum est capable d'obtenir des scores ROUGE supérieurs ou comparables à l'état de l'art en matière de synthèse extractive, et qu'il converge avec significativement moins d'étapes de mise à jour que les approches concurrentes. De plus, nous montrons empiriquement que BanditSum performe nettement mieux que les approches concurrentes lorsque les bonnes phrases du résumé apparaissent tardivement dans le document source.

BanditSum : Résumé extractif en tant que bandit contextuel | Articles de recherche récents | HyperAI