
摘要
我们主张,将内容选择过程与用于覆盖关键内容的预算机制相分离,能够显著提升抽象型摘要生成模型的性能与适用性。为此,我们提出的方法——FactorSum,通过引入一个能量函数,将摘要生成过程分解为两个步骤,实现这一分离:(1)生成抽象化的摘要视图;(2)在预算约束和内容引导下,将这些视图整合为最终摘要。其中,内容引导可来自多种来源,包括如BART或BigBird等指导模型,或在“理想情况”(oracle mode)下,直接来自参考摘要。该分解机制在多个长文档摘要基准测试中均取得了显著更高的ROUGE得分,涵盖PubMed、arXiv和GovReport。尤为突出的是,我们的模型在领域自适应方面表现出色:仅在PubMed数据上训练后,其在arXiv数据集上仍能达到46.29的ROUGE-1得分,这表明模型具备强大的泛化能力,其优势源于更灵活的预算适应机制,以及对领域特定文本结构依赖性较低的内容选择策略。