Google TPUの開発者、Groqが60億ドル評価で3〜5億ドル資金調達を計画
Groq、AI 推理チップで市場を切り開く AI チップスタートアップの Groq が、60 億ドルの評価額で 3~5 億ドルの資金調達を目指していると The Information が報じています。この調達が成功すれば、Groq の評価額は 2024 年初頭の 28 億ドルの2倍以上に跳躍することになります。 Groq は今年、収益が約5億ドルに到達すると見込まれており、昨年の9,000万ドルから5倍以上に成長します。この著しい成長は、サウジアラビアとの大規模な商談により支えられています。今年2月、サウジ側に15億ドルの「コミットメント」を得て、同国向けのチップ販売が大幅に拡大しました。さらに、 Finland にもデータセンターを建設する計画を発表し、インフラの拡充を進めています。 Groq の CEO Jonathan Ross は、GoogleのTPU(テンソル処理ユニット)の共同創設者の一人です。彼の目標は、 NVIDIA よりもコストパフォーマンスが高く、速度が速く、消費電力が低いチップを開発することです。そのために開発されたのが、LPU(言語処理ユニット)という新しいプロセッサカテゴリーです。LPU は AI 推論に特化した設計で、データが「工場の製造ライン」のように流れる「プログラマブルパイプライン」アーキテクチャを採用しています。これにより、SRAM メモリ帯域幅が 80 TB/s に達し、一般的な GPU の高帯域メモリ 8 TB/s に対して 10 倍の速度性能を実現しています。 また、Groq の最大の強みの一つは「ソフトウェア優先」の设计理念です。従来の GPU では、ハードウェアに適応するために個別のソフトウェアカーネルの開発が必要でしたが、Groq はまずコンパイラー設計を行い、それに基づいてハードウェアを開発します。このため、LPU は一般化されたコンパイラを用い、モデル依存性を排除できたことで、複雑な最適化コードを書く必要がなくなり、AI アプリケーションの急速な展開とアップデートを可能にしました。 ビジネスモデルとしては、云サービスの提供を通じて収益を得ており、プラットフォーム上で様々な AI アプリケーションを実行できることから、OpenAI の API サービスや Amazon Web Services の AI ツールに類似しています。加えて、チップシステムの直接販売やデータセンター運営サービスも提供しており、Bell Canada などの大手企業を顧客として抱えています。現在、約200万の開発者とチームが Groq のサービスを利用しており、堅固なユーザーベースを築いています。 一方で、Groq は挑戦と課題も背負っています。7 万個のチップがオンラインで稼働していますが、これは昨年の第1四半期末目標の達成率が70%を下回る結果となっています。性能面でも、NVIDIA の最新製品である Hopperシリーズや Blackwell シリーズには劣ります。 なお、同じ AI チップ市場で注目される Cerebras は、昨年上場を狙いましたが、 UAE の G42 社との関係が規制当局の審査を受け、頓挫しました。また、D-Matrix は大規模言語モデル向けの効率的な動作に特化した AI チップを開発しており、2.5 億ドルの資金調達を目指して1.2 億ドルを獲得済みで、残り1.8 億ドルの調達を目指しています。 AI マーケットが急速に拡大する中、特定用途向けチップの開発は大きな機会を秘めています。ただし、すでに NVIDIA エコシステムに慣れている開発者の移行は容易ではありません。Groq や他の競合企業が今後、巨額の市場をどのように変革していくのか、注目が集まっています。 参考文献: 1. The Information: NVIDIA チャレンジャーの Groq が60億ドルの評価額で融資を検討 2. Groq 公式ブログ: Groq LPU の解説