HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI豪掷100亿进军芯片,自研AI芯片明年亮相

OpenAI正加速推进其自研AI芯片计划,以减少对Nvidia的依赖。据《金融时报》报道,该公司已与美国半导体巨头博通(Broadcom)合作,共同开发定制化AI芯片,预计将于2025年下半年开始量产并投入使用。这些芯片将专用于OpenAI内部的模型训练与推理,包括其核心产品ChatGPT系列。 此次合作的标志性进展是博通在财报中披露,已获得一份价值超100亿美元的AI系统订单,虽未明确点名客户,但业界普遍认为该客户正是OpenAI。值得注意的是,这笔订单并非仅指芯片本身,而是涵盖基于博通XPU架构的完整AI计算系统,预计从2025财年第三季度起逐步交付,2026财年将形成显著收入贡献。 OpenAI此举并非孤例。随着生成式AI爆发式增长,算力需求激增,谷歌、亚马逊、微软等科技巨头纷纷布局自研芯片。谷歌已推出TPU,亚马逊推出Trainium与Inferentia系列,微软则通过Azure定制芯片。OpenAI作为全球领先的独立AI模型公司,虽在2024年亏损达50亿美元,但其估值已突破5000亿美元,资金实力雄厚,具备自建算力基础设施的能力。 此举背后是深刻的战略考量。当前Nvidia凭借其GPU在AI训练领域占据绝对主导地位,但其供应紧张、成本高昂,且面临地缘政治限制。OpenAI若长期依赖外部算力,将面临成本失控与供应链风险。自研芯片不仅能实现软硬件协同优化,提升模型效率,更能有效控制长期运营成本,支撑其“Stargate”计划——一项耗资约5000亿美元、旨在构建全球AI算力基础设施的宏伟蓝图。 尽管博通的财报显示,AI相关芯片收入在2024年第三季度同比增长63.4%,达到约51.8亿美元,但其AI芯片业务仍面临挑战。目前,AI计算与AI网络芯片的营收虽增长迅猛,但非AI芯片业务规模仍更大,且整体利润率受VMware整合影响略有承压。此外,博通CEO霍克·谭明确表示,100亿美元订单来自“新客户”,而非仅芯片销售,而是系统级交付,这进一步印证了OpenAI并非单纯采购芯片,而是构建完整算力生态。 总体来看,OpenAI与博通的合作标志着AI产业正从“算力外包”迈向“自主可控”的新阶段。虽然短期内Nvidia仍将是AI算力的主流选择,但随着更多企业掌握自研芯片能力,全球AI基础设施格局或将迎来深刻变革。

相关链接