摘要
在自然语言处理(NLP)领域,生成既能准确传达原文含义又高度凝练的摘要文本是一项极具挑战性的任务。抽象文本摘要(Abstract Text Summarization, ATS)是指从源文本中提取关键事实,并将其整合为简洁表达的过程,同时保持原文的内容与意图。人工对大量文本进行摘要不仅难度大,而且耗时费力,因此文本摘要已成为NLP领域备受关注的研究方向。本文提出了一种基于Transformer架构与自注意力机制(Self-Attention Mechanism)的ATS模型,称为T2SAM(Transformer with Self-Attention Mechanism for Abstract Summarization)。该模型引入自注意力机制,有效缓解了文本中的指代消解(coreference)问题,显著提升了系统对语义上下文的理解能力。实验结果表明,所提出的T2SAM模型在文本摘要任务中性能优于现有主流基准模型。该模型在Inshorts新闻数据集与DUC-2004共享任务数据集的联合数据上进行训练。通过ROUGE指标对模型性能进行评估,结果显示其在多个评价维度上均超越了当前最先进的基线模型。在训练过程中,模型的损失值从初始的10.3058显著下降至30个训练周期后的1.8220,表现出良好的收敛性。此外,该模型在Inshorts和DUC-2004两个新闻数据集上均取得了48.50%的F1分数,展现出优异的摘要生成能力。