摘要
文档级关系抽取(Document-Level Relation Extraction, RE)近年来受到广泛关注,原因在于大量关系事实通常分布在多个句子中。近期,基于编码器-聚合器(encoder-aggregator)的模型在文档级关系抽取任务中展现出良好的前景。然而,这类模型存在两个主要缺陷:(i)当提及项(mention)参与不同实体对时,难以以较低的计算成本获取其上下文感知的表示;(ii)忽略了目标实体对中各提及项对之间的不同权重。为解决上述问题,本文提出一种新颖的编码器-注意力器-聚合器(Encoder-Attender-Aggregator)模型,在编码器与聚合器之间引入两个注意力机制模块。具体而言,首先采用一种互注意力机制(mutual attender)对选定的头实体提及项与尾实体提及项进行处理,高效生成具有上下文感知能力的提及项表示;随后,通过一个融合注意力机制(integration attender)为特定目标实体对中的各个提及项对分配不同的权重,以增强关键信息的表达能力。在两个公开的文档级关系抽取数据集上的大量实验表明,所提出的模型在性能上优于当前最先进的基线方法。相关代码已公开发布于:https://github.com/nefujiangping/EncAttAgg。