OpenAI携手Cerebras加速AI芯片研发,推动下一代大模型训练
OpenAI宣布与Cerebras建立战略合作伙伴关系,将后者专为AI优化的超高速计算系统整合进自身算力体系,以加速AI模型的长文本生成等任务。Cerebras的核心技术在于将海量计算资源、内存和带宽集中于单一大型芯片上,有效消除传统硬件在推理过程中的性能瓶颈,实现极低延迟的响应速度。 OpenAI表示,此次合作旨在提升AI系统在处理复杂任务时的响应效率。无论是用户提出复杂问题、生成代码、创建图像,还是运行AI代理,背后都涉及“请求—思考—返回”的循环。当AI能实现实时响应,用户使用体验将显著提升,停留时间更长,也能完成更高价值的工作任务。 OpenAI计算负责人Sachin Katti指出,公司正构建一个多元、弹性的算力组合,确保不同任务匹配最合适的硬件。Cerebras的加入,为平台提供了专用的低延迟推理能力,不仅加快响应速度,还让AI交互更自然,为未来大规模部署实时AI打下坚实基础。 Cerebras联合创始人兼CEO安德鲁·费尔德曼表示,非常荣幸能与OpenAI合作,将全球领先的AI模型部署在世界最快的AI处理器上。他比喻,如同宽带彻底改变了互联网,实时推理也将彻底重塑AI,催生全新的AI开发与交互方式。 该算力能力将分阶段于2028年前逐步上线,持续扩展至OpenAI的各类应用场景。此次合作标志着AI基础设施正向更高效、更实时的方向加速演进。
