HyperAIHyperAI

Command Palette

Search for a command to run...

亚马逊发布新AI芯片,携手NVIDIA推进Trainium4部署

亚马逊云科技(AWS)在近日举行的AWS re:Invent大会上宣布,其自研AI芯片Trainium系列迎来重大升级,推出第三代产品Trainium3,并透露下一代Trainium4已进入开发阶段,将支持NVIDIA的NVLink Fusion技术,进一步强化其在AI基础设施领域的竞争力。 Trainium3 UltraServer系统搭载3纳米制程的Trainium3芯片,性能较前代提升超过4倍,内存容量也增加4倍,同时能效提升40%,显著降低AI训练与推理的能耗。该系统可将数千台服务器互联,单个应用最高可调用百万级Trainium3芯片,是前代产品的10倍规模。AWS表示,包括Anthropic、日本大模型公司Karakuri、SplashMusic和Decart在内的多家客户已使用Trainium3,大幅降低了AI推理成本。 更关键的是,AWS正通过Trainium4布局更深远的战略。新芯片将支持NVIDIA的NVLink Fusion高带宽互连架构,实现与NVIDIA GPU在同一系统中的协同工作。这一设计意味着,即使AI应用原本基于NVIDIA CUDA生态开发,也能在AWS平台上高效运行,从而降低迁移门槛。这不仅有助于AWS吸引依赖NVIDIA生态的客户,也为其构建“异构融合”的AI基础设施铺平道路。 AWS此举背后是其长期战略:通过自研芯片与底层硬件技术(如Graviton CPU、EFA网络适配器、Nitro虚拟化系统)的深度整合,打造比单纯使用GPU更具成本与性能优势的AI解决方案。目前,Trainium2已实现超100万颗芯片在产,服务超过10万家客户,成为AWS Bedrock平台的核心算力支撑。 值得一提的是,AWS与AI公司Anthropic的深度合作也凸显其生态布局。双方合作的“Project Rainier”项目已部署超50万颗Trainium2芯片,支撑Claude系列模型的持续迭代。作为Anthropic的重要投资方,AWS通过技术绑定,将自身云服务与客户AI研发深度绑定。 尽管NVIDIA凭借CUDA生态和InfiniBand网络技术长期主导AI算力市场,但AWS正以“自研芯片+开放互连+成本优势”三重策略,逐步打破壁垒。Trainium4与NVLink Fusion的融合,或将成为AWS在AI基础设施领域真正挑战NVIDIA霸权的关键一步。未来,谁能在性能、能效与生态兼容性之间取得平衡,谁就可能在百亿级AI市场中分得更大蛋糕。

相关链接