11 天前

通过修复来学习:利用弱监督解决数学应用题

Yining Hong, Qing Li, Daniel Ciao, Siyuan Huang, Song-Chun Zhu
通过修复来学习:利用弱监督解决数学应用题
摘要

以往求解数学应用题(Math Word Problems, MWPs)的神经网络方法均采用全监督学习,难以生成多样化的解题路径。本文针对这一问题,提出一种新型的弱监督学习范式来求解MWPs。该方法仅需标注最终答案,即可为同一道题目生成多种不同的解法。为提升弱监督学习的性能,我们提出一种新颖的通过修正学习(Learning-by-Fixing, LBF)框架,通过符号推理机制纠正神经网络的错误理解。具体而言,对于神经网络生成的错误解题树,该框架中的修正机制能够从根节点向叶节点传播错误信息,并推断出最可能的修正操作,从而引导模型获得正确答案。为进一步提升解法多样性,我们引入树结构正则化(tree regularization),以高效地压缩并探索解空间;同时设计了一个记忆缓冲区(memory buffer),用于记录并保存每道题目所发现的多种有效修正方案。在Math23K数据集上的实验结果表明,所提出的LBF框架在弱监督学习设置下显著优于强化学习基线方法。此外,其Top-1准确率与全监督方法相当,而Top-3和Top-5准确率则显著更优,充分体现了该方法在生成多样化解法方面的强大能力。

通过修复来学习:利用弱监督解决数学应用题 | 最新论文 | HyperAI超神经