AmazonがAI向け新チップTrainium4を発表、NVIDIAとの連携も進む。アンドリュー・ジャシーCEOは同チップがすでに数十億ドル規模のビジネスを形成していると語った。
Amazon Web Services(AWS)は、AIインフラの高速化をめざし、NVIDIAと協業して「NVLink Fusion」を活用した次世代AIチップ「Trainium4」の開発を進める。この取り組みは、AWSが自社開発のAIチップ戦略を深化させる重要な一歩であり、NVIDIAの市場支配を背景に、ハイパースケーラーとしての競争力を強化する狙いがある。2025年のAWS re:Inventで発表されたTrainium3は、前世代比で4倍の性能と4倍のメモリ容量を実現し、エネルギー効率も40%向上。1台のUltraServerに144個のチップを搭載可能で、最大100万個のチップを連携させることで、大規模なAIモデルのトレーニングと推論を可能にした。この性能向上により、AnthropicやLMM Karakuri、SplashMusic、Decartといった企業が推論コストを大幅に削減している。 その背景には、AIモデルの規模拡大と複雑化が進む中で、数百億〜兆パラメータのモデルやMixture-of-Experts(MoE)アーキテクチャが主流になり、多数のアクセラレータを高帯域・低遅延で接続する「スケールアップネットワーク」の必要性が高まっている。従来、ハイパースケーラーは自社でチップ設計からラック構造、冷却、電源、ネットワークまで一括開発する必要があり、数年間、数十億ドルの投資を要する課題があった。NVLink Fusionは、NVIDIAのMGXラックアーキテクチャとNVLink 6スケールアップ接続技術を統合し、カスタムASICを72個すべて対すべて(all-to-all)で3.6TB/sの帯域で接続可能にすることで、性能と開発効率を飛躍的に向上させる。 Trainium4は、このNVLink Fusionと互換性を持つ設計となっており、NVIDIAのGPUと同一ラック内で動作可能。これにより、CUDAに依存する既存AIアプリケーションも、AWSの低コストインフラ上で利用可能になる可能性が高まる。AWSは、自社のGraviton CPU、Elastic Fabric Adapters(EFA)、Nitroシステムといった技術と組み合わせ、完全なエコシステムを提供。また、OEM/ODMと数十のサプライヤーからなるエコシステムにより、部品の遅延や変更リスクを大幅に低減できる。 AWSは、Trainium2で既に100万個以上のチップが稼働し、10万社以上がBedrockプラットフォームで利用。年間数十億ドル規模の収益を生み出しており、特にAnthropicとの「Project Rainier」で50万個以上のチップが活用されている。このように、Amazonは自社チップの価格性能比とエコシステムの強みを武器に、NVIDIAに並ぶ存在を目指している。ただし、CUDAの標準化は大きな障壁であり、完全な代替には至らない。それでも、NVLink Fusionとの連携により、AWSは「NVIDIAの技術を活用しつつ、自社の低コストインフラで競争優位を築く」戦略を実現しつつある。
