Command Palette
Search for a command to run...
Affiner BERT pour la synthèse extractive
Affiner BERT pour la synthèse extractive
Yang Liu
Résumé
BERT, un modèle de Transformer pré-entraîné, a obtenu des performances révolutionnaires sur plusieurs tâches de traitement du langage naturel (NLP). Dans cet article, nous décrivons BERTSUM, une variante simplifiée de BERT, destinée à la synthèse extractive. Notre système est à l'état de l'art sur le jeu de données CNN/Dailymail, surpassant le système précédemment le plus performant avec une amélioration de 1,65 en ROUGE-L. Les codes permettant de reproduire nos résultats sont disponibles à l'adresse suivante : https://github.com/nlpyang/BertSum