14 天前

基于推理链的多跳问答

Jifan Chen, Shih-ting Lin, Greg Durrett
基于推理链的多跳问答
摘要

多跳问答(multi-hop question answering)要求模型从文本的不同部分整合信息以回答问题。目前大多数方法采用端到端的神经网络架构来处理该任务,但并未显式建模推理过程。本文提出一种方法,用于从文本中提取离散的推理链(reasoning chain),该推理链由一系列导向答案的句子组成。随后,我们将提取出的推理链输入基于BERT的问答模型,以完成最终的答案预测。关键在于,我们在训练阶段并不依赖人工标注的推理链或“支持性事实”(supporting facts)。相反,我们通过基于命名实体识别(NER)和共指消解(coreference resolution)的启发式方法,自动构建伪黄金推理链(pseudogold reasoning chains)。此外,在测试阶段,我们的模型也无需依赖任何标注信息,而是直接从原始文本中学习提取推理链。我们在两个近期提出的大型多跳问答数据集——WikiHop和HotpotQA上对所提方法进行了评估,结果在WikiHop上达到了当前最优性能,在HotpotQA上也取得了强劲的表现。分析表明,影响模型性能的关键因素包括:推理链的顺序化提取机制至关重要,同时对候选句子的处理必须具有上下文感知能力。此外,人工评估结果显示,由模型提取出的推理链能够帮助人类以高度信心作出正确回答,表明这些推理链是该任务中一个强有力的中间抽象表示。