HyperAIHyperAI

Command Palette

Search for a command to run...

基于跨句依存关系的词表示学习用于端到端共指消解

Jim Glass Hongyin Luo

摘要

在本研究中,我们提出了一种词嵌入模型,通过学习跨句依赖关系以提升端到端共指消解(End-to-End Coreference Resolution, E2E-CR)的性能。传统的E2E-CR模型通常对输入文章或对话中的每一句话分别运行长短期记忆网络(LSTM)以生成词表示。与此不同,我们提出了线性句间连接(linear sentence linking)和注意力句间连接(attentional sentence linking)两种模型,用以捕捉跨句依赖关系。这两种句间连接策略使LSTM在计算当前输入词的表示时,能够利用上下文句子中的有价值信息。通过该方法,LSTM所学习的词嵌入不仅融合了当前句子中的语义信息,还整合了整个输入文档的上下文知识。实验结果表明,学习跨句依赖关系能够丰富词表示所包含的信息量,相较于基线模型,显著提升了共指消解任务的性能。


用 AI 构建 AI

从创意到上线——通过免费 AI 协同编码、开箱即用的环境和最优惠的 GPU 价格,加速您的 AI 开发。

AI 协同编码
开箱即用的 GPU
最优定价

HyperAI Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供