MiniMax M2.7 助力 NVIDIA 平台实现复杂 AI 应用的可扩展智能体工作流
MiniMax 推出 M2.7 模型,显著提升了复杂 AI 应用的智能体工作流能力。该模型基于广受欢迎的 M2.5 版本进行优化,专为推理、机器学习研究、软件工程及办公场景设计。目前,M2.7 已通过英伟达平台及开源推理生态系统开放权重。 作为 M2 系列的一部分,MiniMax M2.7 采用稀疏混合专家(MoE)架构,在保持低推理成本的同时,实现了高达 2300 亿参数的模型容量。其核心机制包含 256 个本地专家,每处理一个 token 仅激活其中 8 个,激活率仅为 4.3%,而活跃参数总量为 100 亿。这种设计配合 20 万 token 的上下文长度,使其在编码挑战和复杂智能体任务中表现卓越,同时维持了类似 2300 亿参数大模型的完整能力。 英伟达推出了 NemoClaw 开源参考栈,简化了基于 M2.7 等模型的长期智能体部署。通过单条指令,开发者即可在英伟达 Brev 云 AI GPU 平台上启动安全的 OpenShell 运行时环境。此外,英伟达与开源社区合作,将高性能内核集成至 vLLM 和 SGLang 框架中。实测数据显示,针对大型 MoE 模型的架构需求,这些优化在英伟达 Blackwell Ultra GPU 上使吞吐量分别提升了 2.5 倍和 2.7 倍。 在部署方面,开发者可利用英伟达免费 GPU 加速端点在 build.nvidia.com 上快速测试模型,或通过优化的容器化微服务 NVIDIA NIM 将模型扩展至生产环境。对于微调需求,英伟达 NeMo 框架提供了专门的工具和示例,支持基于强化学习的进一步定制。无论是从数据中心部署到企业级微服务,再到模型微调,英伟达为 MiniMax M2.7 的整合提供了全方位解决方案,助力开发者快速构建高效的 AI 应用。
