HyperAIHyperAI

Command Palette

Search for a command to run...

OpenAI总裁揭秘GPU资源分配内幕:一场“痛苦与煎熬”的内部博弈

OpenAI总裁格雷格·布罗克曼在近日播出的一期《马修·伯曼》播客中透露,公司内部分配GPU资源的过程被形容为“痛苦与煎熬”。他坦言,决定哪些团队能获得关键计算资源,是一项充满情感压力和高度紧张的工作。 布罗克曼表示,每个团队都提出极具潜力的项目,而他必须在“这太棒了,我们该支持”的冲动与现实资源限制之间做出抉择。OpenAI将计算资源在研究与应用产品之间分配,研究方向的分配由首席科学家和研究负责人决定,而整体比例则由CEO山姆·阿尔特曼与应用业务负责人菲吉·西莫共同裁定。 在具体执行层面,一个小型内部团队负责动态调配GPU,其中负责人凯文·帕克(Kevin Park)尤为关键。当新项目急需算力时,团队成员会向他求助,而他则需协调那些已接近尾声的项目,腾出资源。“你只能跟他说,‘我们这个新项目急需更多GPU’,然后他告诉你,‘那几个项目正在收尾,可以释放一些资源’。”布罗克曼说。 这一内部调度机制折射出整个AI行业的共同困境——算力极度稀缺。布罗克曼强调,计算能力直接决定团队的生产力,而对算力的争夺已演变为一场情绪激烈、高度投入的拉锯战。“人们真的非常在意,是否能拿到算力,这种情绪你无法低估。” OpenAI此前已多次公开强调对GPU的渴求。其产品负责人凯文·韦尔曾表示:“每多一台GPU,我们立刻就会用上。”他认为,算力的提升是推动AI普及的关键,正如带宽的扩展曾促成视频爆炸式增长。 阿尔特曼也透露,OpenAI正推出一系列计算密集型新功能,部分将仅对Pro订阅用户开放,或收取额外费用。他将此视为一次极限实验:“我们想看看,当把大量算力投入到当前模型成本下,能实现哪些前所未有的新想法。” 与此同时,Meta等科技巨头也在加码算力投入。马克·扎克伯格表示,Meta正将“每位研究人员的算力”作为核心竞争优势,其在GPU及定制基础设施上的投入已超过竞争对手。

相关链接