
摘要
针对文档的神经问答(QA)模型已经取得了显著的性能提升。尽管这些模型效果良好,但由于其对文档与问题之间复杂交互的建模,导致它们无法扩展到大型语料库。此外,近期的研究表明,这类模型对于对抗性输入非常敏感。在本文中,我们研究了回答问题所需的最小上下文,并发现现有数据集中大多数问题可以通过少量句子来解答。基于这一观察结果,我们提出了一种简单的句子选择器,用于选择输入问答模型的最小句子集。我们的整体系统在训练时间(最多减少15倍)和推理时间(最多减少13倍)上实现了显著的减少,同时在SQuAD、NewsQA、TriviaQA和SQuAD-Open上的准确率与当前最先进方法相当或更优。此外,我们的实验结果和分析表明,我们的方法对对抗性输入具有更强的鲁棒性。