2 个月前
用于多提及项共指推理的神经模型
Bhuwan Dhingra; Qiao Jin; Zhilin Yang; William W. Cohen; Ruslan Salakhutdinov

摘要
许多自然语言处理(NLP)问题需要从文本中多个相隔较远的同一实体提及中聚合信息。现有的循环神经网络(RNN)层偏向于短期依赖关系,因此不适合此类任务。我们提出了一种偏向于共指依赖关系的循环层。该层利用从外部系统提取的共指注释来连接属于同一聚类的实体提及。将这一层整合到最先进的阅读理解模型中,在三个数据集——WikiHop、LAMBADA和bAbi AI任务——上提高了性能,尤其是在训练数据稀缺时表现尤为显著。