16 days ago
Skywork-R1V3 技术报告
Wei Shen; Jiangbo Pei; Yi Peng; Xuchen Song; Yang Liu; Jian Peng; Haofeng Sun; Yunzhuo Hao; Peiyu Wang; Yahui Zhou

摘要
我们介绍了一种先进的开源视觉-语言模型(VLM)——Skywork-R1V3,该模型开创了视觉推理的新方法。其核心创新在于有效地将仅基于文本的大规模语言模型(LLM)的推理能力转移到视觉任务中。Skywork-R1V3 的出色表现主要归功于我们精心设计的强化学习(RL)后训练框架,该框架能够在无需额外预训练的情况下有效激活并增强模型的推理能力。通过这一框架,我们进一步揭示了连接模块在实现稳健的跨模态对齐中的基础作用,这对于多模态推理模型至关重要。此外,我们引入了一个独特的推理能力指标——关键推理标记的熵(entropy of critical reasoning tokens),这一指标在强化学习训练期间的检查点选择中被证明非常有效。Skywork-R1V3 在 MMMU 数据集上取得了最先进的结果,显著提升了从 64.3% 到 76.0% 的性能,这一表现达到了初级人类水平。尤为值得一提的是,我们的强化学习驱动的后训练方法使得拥有 380 亿参数的模型能够与顶级闭源 VLM 相媲美。该实现成功地将数学推理能力扩展到其他学科相关的推理任务中。我们还分析了课程学习和强化微调策略,并进行了更广泛的多模态推理讨论。Skywork-R1V3 标志着多模态推理领域的重大突破,展示了强化学习作为推动开源 VLM 能力发展的强大引擎的作用。