
摘要
在对话式问答(Conversational Question Answering, ConvQA)中,用户通过一系列上下文不完整的语句表达其信息需求。传统的ConvQA方法通常依赖单一信息源(如知识库(KB)、文本语料库或一组表格),因而无法充分利用多源信息带来的答案覆盖范围扩展与冗余优势。本文提出的EXPLAIGNN方法通过融合来自多种信息源(包括知识库、文本语料库、网络表格及信息框)的实体与证据片段,并提供用户可理解的答案解释,有效克服了上述局限。该方法构建了一个异构图结构,其中包含从多源获取的实体与证据片段。随后,利用引入问题级别注意力机制的图神经网络,对这一大规模图进行迭代压缩,逐步提炼出最优答案及其可解释的推理过程。实验结果表明,EXPLAIGNN在性能上优于现有最先进方法;用户研究表明,所生成的答案具有良好的可理解性,能够被终端用户有效理解。