HyperAIHyperAI

Command Palette

Search for a command to run...

Cerebras 与 Meta 合力打造全球最快 Llama API 推理服务,加速实时 AI 应用开发

2025年4月29日,Meta与Cerebras宣布合作,在新的Llama API中提供超快速推理服务,结合了世界上最受欢迎的开源模型Llama和全球最快的推理技术。这一新平台为庞大的开发者社区打开了全新的应用可能性。 在Llama 4 Cerebras模型的支持下,通过Llama API构建的应用程序生成速度预计比传统GPU解决方案快18倍。这种加速使得构建需要低延迟语音、交互式代码生成、多步推理和实时代理的应用程序成为可能,所有这些应用程序现在都可以在秒级完成,而不仅仅是在分钟级。 Meta与Cerebras的合作不仅让Cerebras获得了更广泛的全球开发者认可,还加深了其与Meta及其顶尖团队的业务关系。自2024年推出推理解决方案以来,Cerebras已经提供了全球最快的Llama推理服务,处理了数十亿个AI标记。这标志着开发者社区可以直接访问一个强大、类似OpenAI的替代方案,用于构建智能实时系统,而且该方案得到了Cerebras的速度和规模支持。 Cerebras CEO兼联合创始人Andrew Feldman表示:“Cerebras很自豪能够让Llama API成为全球最快的推理API。构建基于代理的和实时的应用程序需要速度,有了Cerebras在Llama API上的支持,开发者可以构建传统基于GPU的推理云根本无法实现的AI系统。” 根据第三方基准测试网站Artificial Analysis的数据,Cerebras在Llama 4 Scout上的推理速度达到了每秒超过2,600个标记,而ChatGPT的推理速度约为每秒130个标记,DeepSeek则为每秒约25个标记。开发者只需在Llama API中的模型选项中选择Cerebras,即可轻松获得最快的Llama 4推理体验。这将使原型设计、构建和扩展实时AI应用程序变得更加简单。有兴趣的开发者可以通过访问www.cerebras.ai/inference申请Llama API的早期访问,体验Cerebras带来的速度。 Cerebras Systems是一家由创新的计算机架构师、计算机科学家、深度学习研究人员和各类工程师组成的团队。他们致力于从零开始构建新一代的AI超级计算机。旗舰产品CS-3系统搭载了全球最大最快、商业化的AI处理器Wafer-Scale Engine-3。Cerebras通过简单的集群方式构建了世界上最大的AI超级计算机,并大大简化了模型部署的复杂性。Cerebras推理技术提供了突破性的推理速度,帮助客户创建前沿的AI应用。公司为领先的企业、研究机构和政府提供服务,用于开发具有数百万下载量的专有模型和开源模型。Cerebras解决方案可通过Cerebras Cloud和本地部署获取。欲了解更多信息,请访问cerebras.ai或关注其LinkedIn、X和Threads账号。 业内人士评价认为,这项合作进一步巩固了Cerebras作为高性能AI推理市场领导者的地位,其在速度和规模上的优化将为行业带来深远影响。Meta作为全球最大的社交媒体公司之一,此次联手Cerebras无疑为其开发者生态系统注入了新的活力。

相关链接

Cerebras SystemsCerebras Systems
Cerebras 与 Meta 合力打造全球最快 Llama API 推理服务,加速实时 AI 应用开发 | 热门资讯 | HyperAI超神经