9 天前

测试时高效学习:LLM的主动微调

Jonas Hübotter, Sascha Bongni, Ido Hakimi, Andreas Krause
测试时高效学习:LLM的主动微调
摘要

近期在微调语言模型方面的努力通常依赖于自动数据选择方法,普遍采用从大规模数据集中进行最近邻(Nearest Neighbors)检索的方式。然而,我们从理论上证明,此类方法倾向于选择冗余数据,从而限制了其有效性,甚至可能损害模型性能。为解决这一问题,我们提出 SIFT(Selective Information-Focused Training),一种旨在降低给定提示下模型响应不确定性的数据选择算法。该方法融合了信息检索与主动学习的核心思想。与传统最近邻检索在存在信息重复时表现不佳不同,SIFT 能够有效识别并规避信息冗余,从而优化所选样本的总体信息增益。我们在 Pile 数据集上针对提示特定的语言建模任务,评估了测试时微调(test-time fine-tuning)的效果,结果表明,SIFT 在保持极低计算开销的前提下,始终优于传统的最近邻检索方法。此外,我们证明了所提出的不确定性估计能够有效预测测试时微调带来的性能提升,并基于此设计了一种自适应算法,使测试时计算资源的投入与实际获得的性能增益成比例。我们开源了 $\texttt{activeft}$(主动微调)库,可作为最近邻检索的即插即用替代方案,便于在实际应用中快速部署与验证。