NVIDIA lance Spectrum-XGS Ethernet pour relier des data centers distants et créer des super-ordinateurs d’IA à l’échelle du gigascale
NVIDIA a annoncé aujourd’hui la mise en place de NVIDIA Spectrum-XGS Ethernet, une technologie révolutionnaire permettant de relier des centres de données distribués pour former des « super-usines d’IA à l’échelle gigantesque ». Cette annonce, faite lors de la conférence Hot Chips, répond à la croissance exponentielle de la demande en intelligence artificielle, qui pousse les centres de données individuels à dépasser leurs limites en puissance et en capacité. Face à ces contraintes, les solutions traditionnelles basées sur l’Ethernet standard se révèlent insuffisantes : elles souffrent de latence élevée, de variations de performance (jitter) et de performances imprévisibles sur de longues distances. NVIDIA Spectrum-XGS Ethernet, intégré au plateau Spectrum-X, constitue une troisième dimension de l’infrastructure d’IA, complétant les approches classiques d’extension par scale-up (montée en puissance) et scale-out (montée en nombre). Cette nouvelle technologie permet d’étendre les performances extrêmes du réseau Spectrum-X à des centres de données répartis sur plusieurs villes, pays voire continents, créant ainsi des super-usines d’IA unifiées et à grande échelle. « L’ère industrielle de l’IA est désormais réalité, et les super-usines d’IA à grande échelle en sont l’infrastructure essentielle », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Avec Spectrum-XGS Ethernet, nous ajoutons la capacité d’extension à travers des distances à nos capacités de scale-up et scale-out, permettant de connecter des centres de données à travers le monde en un seul superordinateur d’IA gigantesque. » Spectrum-XGS Ethernet s’appuie sur des algorithmes intelligents capables d’ajuster dynamiquement le réseau en fonction de la distance entre les centres de données. Grâce à un contrôle avancé de la congestion en fonction de la distance, une gestion précise de la latence et une télémétrie complète du bout en bout, cette technologie permet de doubler presque la performance de la bibliothèque de communications collectives de NVIDIA. Cela accélère considérablement les communications entre plusieurs GPU et plusieurs nœuds, garantissant des performances prévisibles même dans des clusters distribués géographiquement. Des géants de l’infrastructure comme CoreWeave, déjà engagés dans la construction d’un réseau de centres de données ultra-performants, seront parmi les premiers à adopter cette technologie. « La mission de CoreWeave est de fournir la plus puissante infrastructure d’IA aux innovateurs du monde entier », a affirmé Peter Salanki, cofondateur et CTO de CoreWeave. « Avec Spectrum-XGS, nous pouvons relier nos centres de données en un superordinateur unique, offrant à nos clients un accès à une IA à l’échelle gigantesque, capable d’accélérer les percées dans tous les secteurs. » Le plateau Spectrum-X Ethernet, qui inclut les commutateurs Spectrum-X et les cartes ConnectX®-8 SuperNIC, offre une densité de bande passante 1,6 fois supérieure à celle de l’Ethernet standard, tout en garantissant une scalabilité transparente, une latence ultrabaissée et des performances exceptionnelles. Cette solution est déjà utilisée dans les plus grands supercalculateurs d’IA au monde. Cette annonce s’inscrit dans une série de progrès récents de NVIDIA en matière de réseau, notamment avec les commutateurs à photonique silicium Quantum-X et les avancées dans l’efficacité énergétique, permettant de connecter des millions de GPU à travers plusieurs sites tout en réduisant la consommation d’énergie et les coûts opérationnels. Spectrum-XGS Ethernet est désormais disponible en tant que composant intégré au plateau Spectrum-X Ethernet. Pour en savoir plus, rendez-vous sur le site de la conférence Hot Chips.