15 天前
将上下文融合进知识图谱以实现常识性问题回答
Yichong Xu, Chenguang Zhu, Ruochen Xu, Yang Liu, Michael Zeng, Xuedong Huang

摘要
常识性问答(QA)要求模型具备常识与事实性知识,以回答关于世界事件的相关问题。以往的许多方法将语言建模与知识图谱(KG)相结合。然而,尽管知识图谱蕴含丰富的结构化信息,却缺乏上下文,难以对概念提供更精确的理解。这种局限性在将知识图谱融入语言建模过程中造成了信息鸿沟,尤其在标注数据不足的情况下更为显著。为此,我们提出利用外部实体描述来为知识理解提供上下文信息。具体而言,我们从维基词典(Wiktionary)中检索相关概念的描述,并将其作为额外输入馈入预训练语言模型。实验结果表明,该方法在CommonsenseQA数据集上取得了当前最优性能,在OpenBookQA数据集中非生成式模型中也取得了最佳成绩。