HyperAIHyperAI

Command Palette

Search for a command to run...

NVIDIA Blackwell超スパーク搭載GB200 NVL72、極限スケールAI推論を実現

NVIDIAはCES 2025の基調講演で、極大規模AI推論に特化した「Grace Blackwellスーパーチップ」と、それを搭載するGB200 NVL72システムを発表した。このスーパーチップは、Blackwell GPU2基とNVIDIA Grace CPU1基を統合した画期的なコンピュートモジュールで、従来比10倍以上の性能を実現。その実現の鍵は、Hopperアーキテクチャで導入された「NVLinkチップ・ツー・チップ」技術。CPUとGPU間の直接メモリ共有を可能にし、低遅延かつ高スループットの通信を実現した。 GB200 NVL72システムは、18台のコンピュートトレーリに72台のGPUを搭載し、5,000本以上の高精度銅線で構成された「NVLinkスイッチスパイン」で接続される。このスパインは、合計2マイル(約3.2km)の配線を精密に切断・組み立て・検査して製造され、130TB/sという驚異的なデータ転送速度を実現。これは、インターネットのピークトラフィック全体を1秒未満で転送可能なレベルだ。 さらに、NVIDIA Quantum-X800スイッチ、NVLinkスイッチ、Spectrum-Xイーサネットが統合され、複数のNVL72システムを一つの巨大なAIインフラとして連携可能に。これにより、AIファクトリーにおける並列処理の制約を解消し、スケーラビリティを飛躍的に向上。 また、NVIDIA BlueField-3 DPUがネットワーク、ストレージ、セキュリティといった非AIタスクをオフロード・加速することで、AIワークロードに集中できる環境を提供。コアウェイブ(CoreWeave)がNVIDIAクラウドパートナーとしてGB200 NVL72を活用し、AIファクトリーを運用している。 さらに、xAIが開発した「コロッサス」は、122日で構築された全スタック型スケールアウトアーキテクチャで、20万以上のNVIDIA GPUを搭載。これにより、AI推論の極限まで性能を引き出すインフラの実現が進んでいる。NVIDIAは、AIの未来を支える「極大規模インフラの基盤」を確立している。

関連リンク

NVIDIA Blackwell超スパーク搭載GB200 NVL72、極限スケールAI推論を実現 | 人気の記事 | HyperAI超神経