2 个月前
多段落BERT:一种用于开放领域问答的全局归一化BERT模型
Zhiguo Wang; Patrick Ng; Xiaofei Ma; Ramesh Nallapati; Bing Xiang

摘要
BERT模型已成功应用于开放域问答任务。然而,以往的研究将同一问题对应的段落视为独立的训练实例进行训练,这可能导致来自不同段落的答案得分不具备可比性。为了解决这一问题,我们提出了一种多段落BERT模型,该模型能够在全局范围内对同一问题的所有段落中的答案得分进行归一化处理,这一改进使得我们的问答模型能够通过利用更多的段落找到更好的答案。此外,我们发现使用滑动窗口方法将文章分割成长度为100词的段落可以提高性能4%。通过利用段落排序器选择高质量的段落,多段落BERT模型又额外提高了2%的性能。在四个标准基准数据集上的实验表明,我们的多段落BERT模型在所有基准上均优于现有的最先进模型。特别是在OpenSQuAD数据集上,我们的模型相比所有非BERT模型分别提高了21.4%的精确匹配率(EM)和21.5%的$F_1$分数;相比基于BERT的模型,则分别提高了5.8%的精确匹配率(EM)和6.5%的$F_1$分数。