NVIDIA lance le plateau Rubin et la DGX SuperPOD 2.0 pour révolutionner l’IA industrielle
NVIDIA présente la plateforme Rubin, une avancée majeure dans le domaine du calcul intensif pour l’intelligence artificielle, au salon CES de Las Vegas. Cette nouvelle architecture, conçue pour accélérer les modèles agents, les modèles à mélange d’experts (MoE) et le raisonnement à long contexte, repose sur six composants clés : le processeur Vera, le GPU Rubin, le commutateur NVLink 6, la carte réseau ConnectX-9 SuperNIC, le DPU BlueField-4 et le commutateur Ethernet Spectrum-6. Grâce à une conception conjointe poussée, la plateforme Rubin optimise l’entraînement et réduit drastiquement le coût par jeton d’inférence, avec une réduction pouvant atteindre 10 fois par rapport à la génération précédente. Le DGX SuperPOD reste le socle fondamental pour déployer des systèmes basés sur Rubin, offrant une solution intégrée couvrant l’ensemble de la chaîne technologique — du calcul à la connectivité et au logiciel. Cette approche unifiée élimine les complexités d’intégration infrastructurelle, permettant aux équipes de se concentrer sur l’innovation en IA. Jensen Huang, PDG de NVIDIA, souligne que l’arrivée de Rubin coïncide avec une demande croissante en puissance de calcul pour l’entraînement et l’inférence. Deux configurations principales sont annoncées : le DGX Vera Rubin NVL72, qui regroupe huit systèmes pour atteindre 28,8 exaflops en FP4 et 600 To de mémoire rapide, avec une bande passante NVLink de 260 To/s, permettant d’opérer l’ensemble du rack comme un unique moteur d’IA. L’autre solution, le DGX Rubin NVL8, est conçue en refroidissement liquide, avec huit GPU Rubin par système, offrant 5,5 fois plus de performance FLOPS en NVFP4 que les systèmes Blackwell, et s’imposant comme une entrée efficace pour les projets d’IA. La connectivité repensée, basée sur des commutateurs Spectrum-6, Quantum-X800 InfiniBand, BlueField-4 et ConnectX-9, élimine les goulets d’étranglement classiques liés à l’échelle, la congestion et la fiabilité. Un réseau 800 Gb/s end-to-end, disponible en InfiniBand ou Ethernet, garantit une performance optimale pour les clusters massifs. NVIDIA Mission Control, logiciel d’orchestration et d’exploitation des centres de données, sera disponible pour les systèmes Rubin, automatisant la gestion des infrastructures, la détection de fuites, la résilience et l’optimisation énergétique. Intégré à l’écosystème NVIDIA AI Enterprise, le DGX SuperPOD supporte également les microservices NIM, notamment pour les modèles ouverts Nemotron-3. Disponibles en deuxième moitié d’année, les systèmes DGX SuperPOD basés sur Rubin marquent le lancement d’une nouvelle ère d’usines d’IA à grande échelle, capables de raisonnement complexe et d’efficacité inégalée. Cette avancée, portée par une conception systémique rigoureuse, positionne NVIDIA comme acteur clé de l’industrie de l’IA, prête à soutenir les prochaines générations de modèles fondamentaux, multimodaux et agents.
