HyperAI超神经
Back to Headlines

Hugging Face迎来Llama Guard 4,小米开源语言模型MiMo提升推理能力

2 months ago

近日,Meta和小米相继发布了重要的AI模型,进一步增强了大型语言模型和视觉模型的安全性和推理能力。以下是这两项发布的详细总结: Meta发布了名为Llama Guard 4的新安全模型以及两个新的Llama Prompt Guard 2模型,旨在进一步保护和增强这些模型的安全性能。Llama Guard 4是一款120亿参数的多模态安全模型,能够处理文本和图像的输入与输出。该模型从Llama 4 Scout模型中剪枝而来,保留了后者的大部分核心权重,能够在单个GPU(24GB VRAM)上运行,极大地提高了部署灵活性。特别是在审核用户输入和模型生成内容时,Llama Guard 4能够检测13类潜在的有害或不合规内容,包括暴力犯罪、性相关犯罪、侵犯隐私、知识产权等,并且支持多种语言的识别。 Llama Guard 4的主要性能提升表现在多个方面。与前一代Llama Guard 3相比,Llama Guard 4在英语识别方面召回率提高了4%,假阳性率减少了3%,F1分数提高了8%。在单图识别上,召回率提升了10%,F1分数增加了8%;多图识别方面,提升更为显著,召回率和F1分数分别提高了20%和17%。这表明Llama Guard 4在处理复杂场景时有了更强的能力。 同时发布的Llama Prompt Guard 2系列引入了两个新模型,参数量分别为8600万和2200万。这两个模型专门用于检测提示注入和越狱攻击,性能更佳,且模型更紧凑。特别是2200万参数的小型模型,不仅能够快速分类,还具备抵抗对抗性攻击的能力,简化了良性与恶意提示的二元分类任务。这些模型的推出,标志着Meta在人工智能安全领域的领先地位得到了进一步巩固。 在小米方面,近日开源了名为MiMo-7B的一系列语言模型及其相关工作,旨在挖掘这些模型在推理任务中的潜力。这一项目包含四个主要模型变体:基础模型MiMo-7B-Base,直接从基础模型开始并通过强化学习训练的模型MiMo-7B-RL-Zero,通过对基础模型进行监督微调得到的模型MiMo-7B-SFT,以及在微调模型基础上进一步通过强化学习训练的模型MiMo-7B-RL。所有模型在Apache 2.0许可下开放访问,展示出小米对社区贡献的积极态度。 特别是在数学和代码推理方面,MiMo-7B系列模型取得了显著成绩。例如,在MATH-500(Pass@1)基准测试中,MiMo-7B-RL的表现达到95.8%,远超基础模型和其他变体。在LiveCodeBench v5(Pass@1)基准测试中,MiMo-7B-RL也达到了57.8%,展现出强大的代码推理能力。小米的工程师团队认为,模型的推理效果并不仅仅取决于其规模,还在于预训练阶段的专门策略和后续的优化训练。 为了让开发者更容易上手,小米推荐使用vLLM推理引擎来运行MiMo-7B系列模型,并提供了详细的示例代码。除了通过vLLM进行推理,用户还可以通过Hugging Face平台访问这些模型及其定义。小米鼓励社区成员基于这些模型进行贡献和改进,进一步推动AI技术的发展。 背景补充 Meta在人工智能安全领域的长期投入和研究成果使其成为该领域的领先者。此次发布的新模型不仅提供了更强的安全保障,还简化了部署流程,降低了技术门槛,有助于提高在线平台和应用程序的安全性。行业专家认为,这些新模型的推出将进一步减少网络上的不安全内容,增强用户体验和信任度。 小米作为一家全球领先的消费电子和智能制造公司,近年来在人工智能领域投入大量资源。此次开源MiMo-7B模型不仅展示了小米在自然语言处理(NLP)和机器学习方面的深厚技术积累,也为开源社区带来了新的活力和可能性。通过这一项目,小米进一步彰显了其在AI领域的技术实力和开放态度,尤其在如何高效利用中小规模模型这一点上给出了令人信服的答案。

Related Links