NVIDIA Blackwell : le superchip conçu pour l'informatique d'IA à l'échelle extrême
NVIDIA Blackwell : conçu pour l’informatique d’inférence à grande échelle Au cœur de l’innovation en intelligence artificielle, la superpuce NVIDIA Grace Blackwell marque une nouvelle ère dans le traitement des charges de travail extrêmes. Présentée lors de son discours inaugural au CES 2025, la puce est le fruit d’une fusion puissante entre deux GPU Blackwell et un processeur CPU NVIDIA Grace, regroupés en un seul module de calcul ultra-performant. Cette architecture, baptisée superpuce, permet une amélioration de la performance d’un ordre de grandeur grâce à une communication sans précédent entre les composants. Pour y parvenir, NVIDIA a mis au point une technologie de connectivité révolutionnaire : NVLink chip-to-chip, initialement introduite avec l’architecture Hopper. Cette interconnexion à très haut débit permet aux processeurs centraux et aux GPU de partager directement la mémoire, réduisant ainsi la latence et augmentant considérablement le débit pour les applications d’intelligence artificielle. La fabrication d’une telle superpuce est un véritable chef-d’œuvre d’ingénierie. Elle repose sur une chaîne de production exigeante, comprenant la découpe précise, l’assemblage et l’inspection minutieuse de milliers de composants. Chaque étape est cruciale pour garantir la fiabilité et la performance à l’échelle du système. Le cœur de cette puissance réside dans le « spine » NVLink Switch, un réseau complexe composé de plus de 5 000 câbles en cuivre haute performance. Ce système relie 72 GPU répartis sur 18 armoires de calcul, permettant un transfert de données à 130 téraoctets par seconde — une vitesse suffisante pour transférer le trafic total d’internet en moins d’une seconde. Pour atteindre cette performance, plus de deux kilomètres de câbles en cuivre sont découpés, mesurés, assemblés et testés avec une précision millimétrique. Chaque spine est inspecté rigoureusement avant son intégration, garantissant une fiabilité absolue dans les environnements les plus exigeants. L’architecture ne s’arrête pas là. Les commutateurs NVIDIA Quantum-X800, NVLink Switch et Spectrum-X Ethernet permettent de connecter un ou plusieurs systèmes NVL72 pour les faire fonctionner comme une seule entité. Cette interconnexion intelligente assure une communication parallèle et sans restriction, essentielle pour l’exploitation à grande échelle des centres d’intelligence artificielle. Les processeurs DPU NVIDIA BlueField-3 jouent également un rôle clé en déchargeant les tâches non liées à l’IA — comme le réseau, le stockage et la sécurité — afin que les ressources du système puissent se concentrer sur les calculs d’intelligence artificielle. Cela optimise l’efficacité globale du centre de calcul. Des exemples concrets illustrent l’impact de cette technologie : le système GB200 NVL72 alimente des installations comme celle de CoreWeave, partenaire cloud NVIDIA, ou encore Colossus, le superordinateur d’xAI, construit en seulement 122 jours et intégrant plus de 200 000 GPU NVIDIA. Ce projet démontre la puissance d’une architecture complète, évolutif et conçue pour le calcul à grande échelle. Avec NVIDIA Blackwell, l’ère de l’informatique d’inférence ultra-performante est désormais réalité — une révolution rendue possible par une synergie parfaite entre matériel, interconnexion et logique de gestion.
