HyperAIHyperAI

Command Palette

Search for a command to run...

Nvidia、AIハード웨アの新基盤「ルビン」アーキテクチャを発表

Nvidiaは10月のCESで、最新のAIハードウェアアーキテクチャ「ルビン(Rubin)」を正式発表した。同社CEOのジェンセン・ハング氏は、「ルビンはAIハードウェアの最前線」と位置づけ、現在すでに量産を開始していると明らかにした。このアーキテクチャは、AIに必要な計算量が急増するという根本的な課題に応えるために設計された。ルビンは2024年に発表され、ブラックウェル、ホッパー、ロヴェルスといった前世代アーキテクチャを置き換えるもので、Nvidiaが世界最高の企業価値を誇る背景にある技術的進化の結晶である。 ルビンアーキテクチャは、天文学者ベラ・フロレンス・クーパー・ルビンにちなんで命名された。本体は6つのチップから構成され、中央に位置するルビンGPUを中心に、ストレージと接続性のボトルネックを改善するブルーフィールドおよびNVLinkの進化版が統合されている。また、エージェンティックな推論に適した新規CPU「ヴェラCPU」も搭載された。 NvidiaのAIインフラソリューション担当上級ディレクター、ディオン・ハリス氏は、現代のAIワークロード、特にエージェント型AIや長期タスクにおけるキーバッファ(KVキャッシュ)のメモリ負荷が増大している点に言及。「外部に接続された新たなストレージ層を導入することで、メモリプールのスケーラビリティを大幅に向上させた」と説明した。 性能面では、モデル学習においてブラックウェル比3.5倍、推論においては5倍の高速化を実現。最大50ペタフロップスの演算性能を達成し、推論時の消費電力あたりの計算能力は8倍向上。これにより、AIインフラの効率性とスケーラビリティが飛躍的に向上する。 ルビンチップは、アントロピック、OpenAI、Amazon Web Servicesといった主要クラウドプロバイダーの採用が決定しており、HPEのブルーライオンスーパーコンピュータや、ローレンス・バークレー国立研究所の新スーパーコンピュータ「ダウドナ」にも採用される予定だ。 同アーキテクチャの登場は、AIインフラを巡る激しい競争を背景にしている。2025年10月の決算発表でハング氏は、「今後5年間でAIインフラに3兆〜4兆ドルが投資される」と予測。ルビンは、そのインフラ基盤を支える新たな柱として、世界的なAI発展を牽引する。

関連リンク

Nvidia、AIハード웨アの新基盤「ルビン」アーキテクチャを発表 | 人気の記事 | HyperAI超神経