NVIDIA、次世代AI・HPCプラットフォーム「Vera Rubin」を解明 9種類のプロセッサで構成される超大規模アーキテクチャが登場
NVIDIAが開発中の次世代AI・HPCプラットフォーム「Vera Rubin」が、2025年末の正式発売を控え、世界的なデータセンター向けに新たな性能基準を築く可能性を秘めている。このプラットフォームは、CPUからGPU、DPU、ネットワークインターフェースまでを統合した、9種類の専用プロセッサから構成される極めて複雑なラックスケールアーキテクチャで、AI推論とトレーニングの両面で劇的な性能向上を目指している。 主なハードウェア構成として、88コアの独自設計CPU「Vera」、3nmプロセスで製造された2つの計算チップを搭載する「Rubin GPU」(R200)、および長文処理に特化した「Rubin CPX GPU」が含まれる。特にRubin GPUは、288GBのHBM4メモリを搭載し、1GPUあたり最大50 PFLOPS(FP4)の推論性能を実現。NVL144ラックでは144個のGPUを搭載し、合計で3.6 NVFP4 ExaFLOPSの推論性能を達成。CPXバージョンは128GBのGDDR7メモリを採用し、コストと消費電力を抑えつつ、百万トークン規模のコンテキスト処理を効率的に行える。 ソフトウェア面では、CUDA 13上に構築された「Dynamo」推論オーケストレーターが、異なるGPUタイプ間でのワークロードの自動分割を実現。また、「Smart Router」と「GPU Planner」により、Mixture-of-Experts(MoE)モデルのパフォーマンスを最適化し、低レイテンシを実現。さらに「NIXL(Interconnect Extension Layer)」によりGPUとNIC間のゼロコピー通信が可能となり、CPU負荷を大幅に削減。 ネットワーク面では、NVLink 6.0とSpectrum-X・Quantum-CX9の光ファイバー接続(CPO)技術が採用され、1.6 Tb/sのポート速度を実現。2027年に予定される「Rubin Ultra」では、4つの計算チップを搭載し、FP4性能を100 PFLOPSまで引き上げる予定で、冷却システムも刷新される。 Vera Rubinは、AI開発の現場における「計算密度」「エネルギー効率」「スケーラビリティ」の新たな基準を提示しており、グーグルやマイクロソフトなどの大手クラウド企業が導入を検討している。NVIDIAは、このプラットフォームを通じて、AI時代のインフラ基盤を再定義しようとしている。
