2 个月前
学习动态上下文增强以实现全局实体链接
Xiyuan Yang; Xiaotao Gu; Sheng Lin; Siliang Tang; Yueting Zhuang; Fei Wu; Zhigang Chen; Guoping Hu; Xiang Ren

摘要
尽管集体实体链接(EL)方法近期取得了成功,但这些“全局”推理方法在“所有提及一致性”假设失效时可能会产生次优结果,并且由于复杂的搜索空间,通常在推理阶段面临较高的计算成本。本文提出了一种简单而有效的解决方案,称为动态上下文增强(Dynamic Context Augmentation, DCA),用于集体实体链接,该方法仅需一次遍历文档中的所有提及。DCA 依次积累上下文信息以进行高效、集体的推理,并可作为即插即用模块与不同的局部 EL 模型结合使用。我们探讨了监督学习和强化学习策略来训练 DCA 模型。大量实验表明,我们的模型在不同的学习设置、基础模型、决策顺序和注意力机制下均表现出有效性。