11 天前

基于跨句依存关系的词表示学习用于端到端共指消解

{Jim Glass, Hongyin Luo}
基于跨句依存关系的词表示学习用于端到端共指消解
摘要

在本研究中,我们提出了一种词嵌入模型,通过学习跨句依赖关系以提升端到端共指消解(End-to-End Coreference Resolution, E2E-CR)的性能。传统的E2E-CR模型通常对输入文章或对话中的每一句话分别运行长短期记忆网络(LSTM)以生成词表示。与此不同,我们提出了线性句间连接(linear sentence linking)和注意力句间连接(attentional sentence linking)两种模型,用以捕捉跨句依赖关系。这两种句间连接策略使LSTM在计算当前输入词的表示时,能够利用上下文句子中的有价值信息。通过该方法,LSTM所学习的词嵌入不仅融合了当前句子中的语义信息,还整合了整个输入文档的上下文知识。实验结果表明,学习跨句依赖关系能够丰富词表示所包含的信息量,相较于基线模型,显著提升了共指消解任务的性能。

基于跨句依存关系的词表示学习用于端到端共指消解 | 最新论文 | HyperAI超神经