17 天前
从少到多的提示方法赋能大型语言模型实现复杂推理
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Claire Cui, Olivier Bousquet, Quoc Le, Ed Chi

摘要
思维链提示(Chain-of-thought prompting)在各类自然语言推理任务中已展现出卓越的性能。然而,当任务难度超过提示中所展示的示例时,该方法往往表现不佳。为应对从简单到复杂的泛化挑战,我们提出了一种新颖的提示策略——由少到多提示(least-to-most prompting)。该策略的核心思想是将复杂问题分解为一系列更简单的子问题,并按顺序逐一求解。每个子问题的求解过程均借助先前已解决子问题的答案来辅助完成。在符号操作、组合泛化以及数学推理等任务上的实验结果表明,由少到多提示能够有效推广至比提示中示例更难的问题。一个显著的发现是:当使用 GPT-3 的 code-davinci-002 模型结合由少到多提示时,仅需 14 个示例,即可在 SCAN 组合泛化基准测试的所有划分(包括长度划分)中达到至少 99% 的准确率;相比之下,使用思维链提示的准确率仅为 16%。这一结果尤为突出,因为文献中专门针对 SCAN 任务设计的神经符号模型通常需在包含超过 15,000 个样本的完整训练集上进行训练才能取得较好效果。本文附录中提供了所有任务的完整提示模板。