
摘要
文档级关系抽取(Document-Level Relation Extraction, DRE)旨在识别文本中两个实体之间的语义关系。由于实体可能在多个提及(mention)中出现,且这些提及可能跨越句子边界,因此如何有效整合这些跨句提及成为关键挑战。然而,以往的研究对提及整合的关注较少,这可能导致问题:具有指代同一实体的多个提及对特定关系的贡献并不均等。此外,现有方法主要聚焦于实体层面的推理,而忽视了实体对之间全局性的交互建模。针对上述问题,本文提出一种名为上下文引导的提及整合与对间推理(Context Guided Mention Integration and Inter-pair Reasoning, CGM2IR)的新方法。该方法摒弃了传统的平均池化策略,转而利用上下文信息以加权求和的方式引导核心指代提及的整合,从而更精准地捕捉每个提及对关系判断的贡献。同时,引入对间推理机制,在实体对图上执行迭代算法,以建模实体对之间关系的相互依赖性。我们在三个广泛使用的基准数据集——DocRED、CDR 和 GDA 上对 CGM2IR 模型进行了评估。实验结果表明,该模型在各项指标上均优于现有的最先进方法,显著提升了文档级关系抽取的性能。