用于评估与提升大语言模型指令遵循能力的多维约束框架
Junjie Ye, Caishuang Huang,, Zhuohan Chen
发布日期: 5/15/2025

摘要
指令遵循评估旨在测试大语言模型(LLMs)在生成符合用户定义约束条件的输出方面的能力。然而,现有的基准测试通常依赖模板化的约束提示,这些提示缺乏真实世界使用场景的多样性,限制了对模型细粒度性能的评估。为弥补这一不足,我们提出了一个多维约束框架,涵盖三种约束模式、四类约束类别以及四个难度等级。在此基础上,我们构建了一个自动化指令生成流程,能够执行约束扩展、冲突检测和指令重写,从而生成了 1,200 个可通过代码验证的指令遵循测试样本。我们对来自七个模型家族的 19 个 LLM 进行了评估,发现它们在不同约束形式下的表现差异显著。例如,平均性能从难度等级 I 的 77.67% 降至等级 IV 的 32.96%。此外,我们还展示了该方法在强化学习数据生成中的实用价值。通过使用这一流程生成的数据进行训练,模型在指令遵循任务上取得了显著提升,同时未损害其通用性能。深入分析表明,这种性能提升主要来源于模型注意力模块参数的调整,这增强了模型对约束的识别与遵循能力。