HyperAIHyperAI
Back to Headlines

OpenAI تطلق نموذج GPT-OSS المفتوح المصدر، يُشغل على أجهزة بذاكرة 16GB

منذ 3 أيام

OpenAI 在历经数周预热后虽未发布备受期待的 GPT-5,却意外推出两款全新开源推理模型 gpt-oss-120b 与 gpt-oss-20b,分别拥有约 1170 亿和 210 亿参数。两款模型均采用 Apache 2.0 许可协议,可在 Hugging Face 平台免费下载,支持商业用途,且以 MXFP4 原生量化格式发布,显著降低部署门槛。这是 OpenAI 自 2019 年 GPT-2 以来首次开放大模型权重,标志着其在开源战略上的重大转向。两款模型均基于稀疏专家架构 MoE,gpt-oss-120b 包含 128 个专家每 token 激活 4 个,gpt-oss-20b 有 32 个专家,上下文窗口均为 128k。训练数据聚焦 STEM 领域、通识知识与编程内容,已过滤化学、生物、核能等敏感信息。 gpt-oss-120b 在推理任务中表现接近 OpenAI 自研的 o4-mini 模型,可在单张 80GB 显存 GPU 上流畅运行,适用于高性能计算场景。gpt-oss-20b 虽参数较小,但在多项基准测试中媲美 o3-mini,仅需 16GB 内存即可在笔记本电脑本地运行,极大便利开发者进行快速迭代与实验。Reddit 用户已成功在 16GB RAM 设备上部署该模型。两款模型均支持思维链、结构化输出与工具调用,兼容 OpenAI Responses API,可构建复杂代理工作流。值得注意的是,其思维链为无监督设计,旨在推动对模型推理过程的自主监控,提升安全性。 在性能表现上,gpt-oss-120b 在 AIME、GPQA、MMLU 等推理测试中达到或超越 o4-mini 水平,在 SWE-bench、Codeforces、Tau-Bench 等代码任务中展现强大能力,甚至在 HealthBench 测试中优于 GPT-4o 与 o1 等专有模型。尽管未公布与 DeepSeek 的直接对比,但 Reddit 用户分析显示,在考虑工具调用的前提下 gpt-oss-120b 胜出约 5.7%,若不计工具使用则差距微乎其微。 为保障开源生态安全,OpenAI 发起红队挑战赛,提供最高 50 万美元奖金,邀请全球开发者识别潜在风险。模型经过全面安全评估,即使经过对抗性微调,gpt-oss-120b 仍未达到内部定义的“高风险”能力标准。OpenAI 强调,此举旨在推动基于民主价值观的开放 AI 堆栈建设,实现 AGI 造福全人类的初心。 此次发布被视为对 DeepSeek、Qwen 等开源模型崛起的直接回应。CEO 山姆·奥特曼坦言公司过去在开源道路上“站错边”,如今正积极补救。目前 AWS、Azure、Baseten、Databricks 等主流云平台均已支持部署,LM Studio、Ollama 等本地工具也提供良好兼容性。这一举措不仅降低 AI 技术门槛,更可能重塑全球 AI 生态格局,推动技术民主化与创新加速。

Related Links