Nvidia dévoile la puce Rubin, une révolution en IA avec un gain de vitesse de 5 fois et une efficacité énergétique record
À l’occasion du Consumer Electronics Show, le PDG d’Nvidia, Jensen Huang, a officiellement dévoilé la nouvelle architecture informatique Rubin, qu’il a qualifiée de point d’orgue de l’innovation en matière de matériel dédié à l’intelligence artificielle. Cette architecture, déjà en production, devrait connaître une montée en puissance significative au second semestre de l’année. « Vera Rubin a été conçue pour relever un défi fondamental : la quantité de calculs nécessaires à l’IA ne cesse d’augmenter », a expliqué Huang devant l’assistance. « Aujourd’hui, je peux vous confirmer que Vera Rubin est pleinement en production. » Dévoilée initialement en 2024, l’architecture Rubin marque la suite logique du cycle incessant de développement matériel d’Nvidia, qui a permis à l’entreprise de devenir la société la plus valorisée au monde. Elle succède à l’architecture Blackwell, elle-même issue de la succession des architectures Hopper et Lovelace. Les puces Rubin seront déjà intégrées par presque tous les principaux fournisseurs de cloud, notamment dans le cadre de partenariats stratégiques avec Anthropic, OpenAI et Amazon Web Services. Elles seront également au cœur de systèmes de pointe comme le superordinateur Blue Lion d’HPE et du futur superordinateur Doudna au Laboratoire national de Berkeley. Intitulée en hommage à l’astronome Vera Florence Cooper Rubin, cette architecture repose sur six puces distinctes travaillant ensemble. Au centre se trouve la GPU Rubin, mais l’architecture intègre également des améliorations majeures dans les domaines du stockage et des interconnexions, grâce à des évolutions des systèmes Bluefield et NVLink. Un nouveau processeur Vera, conçu spécifiquement pour le raisonnement agencent, complète l’ensemble. Dion Harris, directeur principal des solutions d’infrastructure IA chez Nvidia, a mis en lumière les gains apportés par la nouvelle gestion du stockage. « Avec l’émergence de nouveaux types de workflows, comme l’IA agente ou les tâches à long terme, la charge sur le cache KV – un système de mémoire essentiel pour condenser les entrées des modèles – devient très importante », a-t-il expliqué lors d’un appel avec la presse. « Nous avons donc introduit une nouvelle couche de stockage externe, connectée directement au dispositif de calcul, permettant d’agrandir de manière bien plus efficace la capacité de stockage disponible. » Comme attendu, l’architecture Rubin représente une avancée significative en termes de vitesse et d’efficacité énergétique. Selon les tests internes d’Nvidia, elle est 3,5 fois plus rapide que l’architecture Blackwell pour l’entraînement de modèles, et jusqu’à 5 fois plus rapide pour les tâches d’inférence, atteignant des performances de pointe de 50 petaflops. Elle offre également une capacité d’inférence 8 fois supérieure par watt. Ces progrès interviennent dans un contexte de concurrence intense pour le développement d’infrastructures IA, où laboratoires et fournisseurs de cloud se disputent à la fois les puces Nvidia et les installations nécessaires à leur alimentation. Lors d’un appel d’actualité en octobre 2025, Jensen Huang a estimé que la dépense mondiale en infrastructure IA s’élèvera à entre 3 et 4 billions de dollars au cours des cinq prochaines années.
