摘要
理解事件需要识别文本中事件提及之间的结构关系与时间顺序,以构建事件结构或事件图谱,作为输入文档的语义表征。为实现这一目标,本研究聚焦于子事件关系抽取(Subevent Relation Extraction, SRE)与时间事件关系抽取(Temporal Event Relation Extraction, TRE)两大任务,旨在预测文本中两个给定事件提及(或事件触发词)之间的子事件关系与时间关系。近年来,针对此类问题的最先进方法普遍采用基于Transformer的预训练语言模型(如BERT)来生成输入事件对的上下文表示。然而,现有基于Transformer的模型在SRE与TRE任务中存在一个显著局限:其输入文本长度受限(如BERT最大支持512个子词单元),难以有效捕获文档中距离较远的重要上下文句子。针对这一问题,本文提出一种新方法,旨在更有效地建模文档级上下文,尤其聚焦于对事件间关系抽取具有关键作用的上下文句子。该方法通过识别给定实体提及对在文档中所依赖的最重要上下文句子,并将其整合为更短的文档片段,从而确保整个片段可被基于Transformer的语言模型完整处理,实现高效表示学习。在模型训练中,我们采用REINFORCE算法,并设计了新颖的奖励函数,以综合衡量模型性能,以及句子间的上下文相似性与知识相似性。大量实验结果表明,所提出方法在多个基准数据集上均取得了当前最优的性能表现,验证了其有效性与先进性。