
摘要
BERT(一种预训练的Transformer模型)在多个自然语言处理任务中取得了突破性的性能。本文介绍了BERTSUM,这是BERT的一个简单变体,用于抽取式摘要生成。我们的系统在CNN/Dailymail数据集上达到了当前最佳水平,在ROUGE-L指标上比之前表现最好的系统高出1.65分。重现我们结果的代码可在https://github.com/nlpyang/BertSum 获取。
BERT(一种预训练的Transformer模型)在多个自然语言处理任务中取得了突破性的性能。本文介绍了BERTSUM,这是BERT的一个简单变体,用于抽取式摘要生成。我们的系统在CNN/Dailymail数据集上达到了当前最佳水平,在ROUGE-L指标上比之前表现最好的系统高出1.65分。重现我们结果的代码可在https://github.com/nlpyang/BertSum 获取。