Amazon、AIトレーニング向け新チップTrainium3を発表、次世代はNvidia GPUと連携可能に
アマゾンウェブサービス(AWS)は、AIトレーニング向け独自チップ「Trainium3」の最新版を発表し、性能と効率性の大幅な向上を実現したと明らかにした。2025年のAWS re:Inventカンファレンスで発表された「Trainium3 UltraServer」は、3ナノメートルプロセスで製造された第三世代チップと、同社独自のネットワーキング技術を搭載。AWSによると、前世代比でAIトレーニングおよび推論性能が4倍以上に向上し、メモリ容量も4倍に拡大。特にピーク負荷時のAIアプリケーション提供において顕著な改善が見られた。 さらに、複数のUltraServerを連結することで最大100万個のTrainium3チップを統合可能。1台のサーバーに144個のチップを搭載でき、前世代比10倍のスケーラビリティを実現。エネルギー効率も40%向上し、膨大な電力を消費するデータセンターの課題に対し、持続可能なソリューションを提供する。 AWSは、こうした技術革新が自社のAIクラウド利用者にとってコスト削減につながると強調。Anthropicや日本の大規模言語モデル(LLM)開発企業・カラクリ、SplashMusic、Decartなどの企業が既にTrainium3を導入し、推論コストを大幅に削減していると報告している。 また、次世代チップ「Trainium4」の開発が進行中であることも明らかに。同チップはNvidiaのNVLink Fusion技術をサポートし、Nvidia GPUと連携して性能を拡張可能。これにより、NvidiaのCUDAを基盤とするAIアプリケーションも、Amazonの低コストサーバーレイアウト上で効率的に動作するようになる。この戦略は、Nvidiaに依存するAI開発エコシステムをAWSクラウドに引き込む可能性を高める。 ただし、Trainium4の具体的なリリース時期は未発表。過去のリリースペースを踏まえると、来年のカンファレンスで詳細が明らかになると予想される。
