Command Palette

Search for a command to run...

1 个月前

Apriel-1.5-15b-Thinker

Apriel-1.5-15b-Thinker

摘要

我们提出 Apriel-1.5-15B-Thinker,这是一个拥有150亿参数的开源权重多模态推理模型,其前沿性能的达成主要依赖于精心设计的训练策略,而非单纯依赖模型规模。该模型以 Pixtral-12B 为基础,采用渐进式的三阶段方法:(1)深度扩展(depth upscaling),在无需从头预训练的前提下,有效提升模型的推理能力;(2)分阶段持续预训练:首先构建基础的文本与视觉理解能力,随后通过针对性生成的合成数据,增强视觉推理能力,重点解决空间结构理解、组合性认知以及细粒度感知等关键问题;(3)在经过精心筛选的指令-响应对上,进行高质量的纯文本监督微调,这些数据包含明确的推理链条,覆盖数学、编程、科学以及工具使用等多个领域。值得注意的是,本模型在未使用强化学习或偏好优化的情况下,仍取得了具有竞争力的性能表现,从而清晰地凸显了我们以数据为中心的持续预训练方法的贡献。在人工分析智能指数(Artificial Analysis Intelligence Index)上,Apriel-1.5-15B-Thinker 获得52分,与 DeepSeek-R1-0528 相当,且所需计算资源显著更少。在十项图像基准测试中,其平均性能与 Gemini-2.5-Flash 和 Claude Sonnet-3.7 相差不超过五分,这一成果对于在单GPU部署限制下运行的模型而言尤为关键。我们的实验结果表明,通过精心设计的中段训练策略,可以在不依赖超大规模模型的前提下,显著缩小能力差距,使前沿水平的多模态推理能力可被计算基础设施有限的机构所获取。我们已将模型检查点、全部训练方案及评估协议以 MIT 许可证开源,以推动开源研究的进一步发展。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供