
摘要
阅读理解模型已成功应用于抽取式文本答案,但如何将其最佳地推广到抽象数值答案仍不清楚。我们使基于BERT的阅读理解模型能够执行轻量级数值推理。通过增加一组预定义的可执行“程序”(programs),这些程序涵盖了简单的算术运算以及信息提取,模型无需直接学习数字操作,而是可以选择并执行这些程序。在最近发布的旨在挑战阅读理解模型的Discrete Reasoning Over Passages (DROP)数据集上,我们通过添加浅层程序展示了33%的绝对改进。当数学文字问题设置(Roy和Roth, 2015)中需要新的操作时,该模型可以在非常少的训练样本下学习预测这些新操作。