NVIDIA Rubinプラットフォーム搭載DGX SuperPOD、エクサフロップ級AI工場の時代を切り開く
NVIDIAがCES2025で発表した「Rubinプラットフォーム」は、次世代AIコンピューティングの基盤となる。この新プラットフォームは、6つの新チップ——NVIDIA Vera CPU、Rubin GPU、NVLink 6スイッチ、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernetスイッチ——を高度に共同設計し、エージェント型AIや混合専門家(MoE)モデル、長文推論の性能を飛躍的に向上させる。特に、推論時のトークン生成コストを前世代比で最大10倍削減するという実績を達成。NVIDIA DGX SuperPODは、このRubin基盤を用いた大規模システム展開の設計基準として位置づけられ、企業や研究機関でのAIインフラ構築を加速する。 DGX SuperPODの新構成として、DGX Vera Rubin NVL72システムは8基のコンピューティングノードを統合し、576個のRubin GPUを搭載。合計28.8エクサフロップスのFP4性能と600TBの高速メモリを実現。各ノードは36CPU、72GPU、18DPUsを内蔵し、NVLinkによる260TB/sの帯域幅でメモリと計算空間を統合。これによりモデル分割の必要がなく、1つの巨大AIエンジンとして動作可能。 また、液体冷却を採用したDGX Rubin NVL8システムは、64基の構成で512GPUを搭載。第6世代NVLinkを搭載し、Blackwellシステム比で5.5倍のNVFP4性能を発揮。x86 CPUと組み合わせ、開発から本番環境への移行を効率化。 ネットワーク面では、Spectrum-6スイッチやQuantum-X800 InfiniBandスイッチ、BlueField-4 DPU、ConnectX-9 SuperNICが連携し、800Gb/sのエンドツーエンドネットワークを実現。AIファクトリーとしてのデータセンターを構築し、スケーラビリティ、混雑、信頼性の課題を解消。 ソフトウェア面では、NVIDIA Mission ControlがRubin基盤に対応。AIデータセンターの自動運用、冷却・電力管理、障害検出、自律復旧を可能にし、運用効率を飛躍的に向上。AI Enterpriseプラットフォームとの連携により、Nemotron-3などのオープンモデルも迅速に展開可能。 NVIDIA DGX SuperPODとRubin基盤は、2025年後半から提供開始予定。これにより、大規模な推論・学習を実現するAIファクトリーの時代が本格的に到来する。
