HyperAIHyperAI

Command Palette

Search for a command to run...

Cerebras、OpenAIと100億ドル規模の推論契約を締結し、AIインフラの革新へ

生成AIが真に主流化するには、インフェンス(推論)のコスト削減と速度向上が不可欠である。特に、人間が対話するチャットボットから、AI同士が連携して自律的に動作する「エージェント型AI」への移行が進む中で、高速かつ安定した推論基盤の構築が急務となっている。この背景で、NVIDIAは2025年12月24日、Groq社を「アキヒア」(人材買収)方式で200億ドルで買収。Groqの学習処理ユニット(LPU)技術と、共同創業者であるジョナサン・ロス氏(元Google TPUプロジェクトリーダー)や最高経営責任者(COO)のサニー・マドラ氏らの主要エンジニアチームを獲得。この動きは、NVIDIAが推論分野での競争力を強化し、将来的なAIインフラの主導権を握ろうとする戦略の一環と見られている。 一方、Cerebras SystemsはOpenAIと2026年から3年間、100億ドル規模のクラウドサービス契約を締結。CerebrasのCS-3ワフェルスケールシステムを用いて、GPT-OSS-120Bモデルを高速で実行する。テストでは、1秒間に約2,700トークンの生成速度と、初トークン出力が280ミリ秒という優れた性能を示しており、GroqCloudの性能を上回る。価格面でも、Cerebrasは入力1メガトークンあたり25セント、出力69セントと、Groq(15セント/75セント)と比較してコストが高めだが、性能の差が価格を補う要因となっている。 この契約が成立した背景には、Groq買収前からOpenAIとCerebrasの協力が進んでいたことがあり、NVIDIAの買収がGroqの売却を促した可能性も指摘される。Cerebrasは、OpenAIが自社のデータセンターを所有しない点を踏まえ、クラウドサービス提供に特化した戦略を採用。CS-3システム(23kW、12.5ペタフロップスFP16)を約3万2,768台、1万6,384ラック規模で導入し、合計753.7メガワットの電力容量を確保。その計算上の総コストは約1000億ドルに上るが、Cerebrasは設備投資を段階的に回収し、3年後に自社クラウドとしての収益性を確保する計画だ。 さらに、2026年後半に登場予定のWSE-4プロセッサとCS-4システムでは、3DスタックSRAMや光通信インターフェースによるメモリ拡張が想定され、より高効率な推論が実現可能。これにより、CS-3ベースのクラスタよりも大幅なコスト削減と性能向上が期待される。 OpenAIは、自社開発の「Titan」XPU(Broadcomと共同開発)を諦めるわけではない。このCerebras契約は、リスク分散のための「ヘッジ」戦略と見られ、複数のインフラ戦略を並行して進める姿勢が浮き彫りになる。Cerebrasのアンドリュー・フェルドマンCEOは「これは世界規模のAIインフラの主流化を意味する」と強調。この提携は、生成AIの実用化を加速させる、重要な転換点と言える。

関連リンク

Cerebras、OpenAIと100億ドル規模の推論契約を締結し、AIインフラの革新へ | 人気の記事 | HyperAI超神経