
摘要
大型语言模型(LLMs)在多个领域展现了卓越的能力,但其训练过程仍需大量计算资源和时间,依赖庞大的算力支持以及复杂的训练流程协调。模型“炖汤”(Model Souping)——即对同架构的多个模型权重进行平均——作为一种有前景的预训练与后训练技术,能够在不进行昂贵重训练的前提下提升模型性能。本文提出了一种系统化的方法——类别专家集成(Soup of Category Experts, SoCE),该方法通过基准测试的组合分析来识别最优模型候选者,并采用非均匀加权平均策略以最大化性能表现。与以往采用均匀平均的方法不同,本方法基于一个关键观察:不同基准类别在模型表现上通常具有较低的相互相关性。SoCE 针对这些弱相关性类别簇识别出“专家”模型,并通过优化的加权平均方式将其融合,而非使用等权重平均。实验结果表明,该方法在多语言能力、工具调用、数学推理等多个领域均显著提升了模型性能与鲁棒性,并在伯克利函数调用排行榜(Berkeley Function Calling Leaderboard)上取得了当前最优(SOTA)的成果。