HyperAI超神经
Back to Headlines

Cerebras 推出 Qwen3-235B:全球最快 AI 模型,支持 131K 上下文,显著提升企业代码生成效率

8 days ago

近日,Cerebras Systems宣布在其推理云平台推出全新AI模型Qwen3-235B,支持长达131K的上下文长度。这一里程碑标志着AI模型性能的重大突破,结合了前沿智能与卓越速度,并在成本上远低于闭源模型,从而彻底改变了企业级AI的应用部署方式。 Qwen3-235B由阿里巴巴开发,在多个科学、编码和综合知识基准测试中,表现出与Claude 4 Sonnet、Gemini 2.5 Flash以及DeepSeek R1等前沿模型相当的智能水平。据独立测试机构Artificial Analysis的评估,该模型凭借高效的混合专家架构,实现了卓越的计算效率,使得Cerebras能够以每百万输入 token 仅需0.60美元,每百万输出 token 仅需1.20美元的价格提供服务,这不到类似闭源模型价格的十分之一。 传统上,推理模型的速度一直是其短板,回答一个简单的问题可能需要几分钟的时间。但通过Cerebras的Wafer Scale Engine(晶圆级引擎),Qwen3-235B的生成速度达到了前所未有的1500 token/秒,将响应时间从1-2分钟大幅缩短至0.6秒,使编码、推理和深度RAG工作流几乎达到即时完成的水平。 此次推出的Qwen3-235B不仅在速度上有了显著提升,其上下文支持长度也从先前的32K扩大到131K token,极大地增强了处理大型代码库和复杂文档的能力。这一扩展意味着Qwen3-235B可以直接应对企业级代码生成功能的需求,成为目前市场上最大且增长最快的生成式AI应用之一。 为了展示Qwen3-235B的这些新功能,Cerebras与Cline建立了战略合作伙伴关系。作为Microsoft VS Code的领先代理编码工具,Cline拥有超过180万用户安装量。现在,Cline用户可以直接在编辑器内访问Cerebras的Qwen模型,首先推出的是Qwen3-32B,支持64K上下文。未来,这一合作将扩展到Qwen3-235B,提供131K上下文支持,其代码生成速度预计将比现有解决方案如DeepSeek R1快10-20倍。 Cerebras首席执行官Saoud Rizwan表示:“借助Cerebras的推理能力,使用Cline的开发者可以体验到未来的高效开发环境。Qwen3-235B几乎实时地解决问题、遍历代码库和编写代码,极大地提升了开发者的生产力,使他们能够保持流畅的工作状态。” 此次发布还标志着Cerebras在推理市场上的全面扩展。该公司不仅为寻求开源替代品的开发者提供了与OpenAI和Anthropic相媲美的模型智能和代码生成能力,还在推理速度方面树立了新的标准,即1500 token/秒以上,远远超过了现有的GPU解决方案。所有这一切都以领先闭源模型成本的十分之一来实现。 在行业人士看来,Qwen3-235B的推出不仅仅是技术层面的突破,更是企业级AI应用的重要里程碑。它展示了开放资源在速度和经济性方面的巨大潜力,有望推动更广泛的企业采纳AI技术。Cerebras Systems长期致力于构建专为生成式AI设计的超级计算机,通过Wafer Scale Engine实现了高性能和低成本的完美结合,为企业带来了前所未有的便利和效率。 Cerebras Systems是一家由一流的计算机架构师、科学家、深度学习研究人员和各种工程师组成的团队,专门从事生成式AI加速领域的工作。其旗舰产品CS-3系统搭载了全球最大的商用AI处理器Wafer-Scale Engine-3,能够快速便捷地扩展成世界上最大的AI超级计算机之一,同时简化复杂模型的部署流程,避免分布式计算的复杂性。Cerebras的客户包括世界领先的公司、研究机构和政府组织,他们利用Cerebras的解决方案开发具有开创性的专有模型,并训练开源模型,这些模型累计下载量已超过数百万次。Cerebras的解决方案可以通过Cerebras Cloud和本地部署的方式获得。更多信息请访问cerebras.ai,或在LinkedIn、X和Threads等平台上关注我们。

Related Links