AMD s’engage dans la course au yottascale avec Helios, son nouveau système rack-scale dédié à l’IA
Sous la direction de Lisa Su depuis plus de onze ans, AMD est sortie de l’ombre de son ancienne architecture Opteron pour devenir un acteur majeur dans le segment des processeurs pour datacenter, grâce à l’innovation autour de la microarchitecture Zen et des puces Epyc, portées par Su, le directeur technique Mark Papermaster et de nombreux ingénieurs. Dans l’ère de l’intelligence artificielle, la société vise désormais à s’imposer dans le marché des GPU, dominé par Nvidia. Bien qu’elle ait encore du chemin à parcourir, AMD s’engage résolument pour positionner ses GPU Instinct comme une alternative crédible. Son récent partenariat avec OpenAI – moteur du mouvement de l’IA générative depuis le lancement de ChatGPT – renforce sa stratégie, en s’alliant à une entreprise aux besoins colossaux en puissance de calcul et aux moyens financiers conséquents. Ce partenariat s’ajoute à d’autres collaborations stratégiques, comme celle avec Oracle annoncée au printemps précédent. À l’occasion du CES 2026 à Las Vegas, Lisa Su a ouvert la conférence en mettant en lumière la croissance exponentielle de la demande en puissance de calcul, alimentée par l’essor des modèles d’IA plus sophistiqués, de l’inférence et des agents intelligents. Selon elle, AMD est le mieux placé pour répondre à ce défi, grâce à une offre intégrée de CPU, GPU, unités de traitement neuronale (NPU) et architecture système. Elle a souligné que l’objectif n’est plus seulement d’offrir des performances brutes, mais de construire une infrastructure d’IA à l’échelle yottascale, nécessitant une synergie entre les composants, une conception modulaire ouverte, un réseau à très haut débit et une déploiement simplifié. C’est dans ce contexte que s’inscrit Helios, la nouvelle plateforme d’échelle de rack de AMD, conçue pour l’ère yottascale. Basée sur le standard Open Rack Wide de l’Open Compute Project, cette solution double-largeur pèse près de 7 000 livres (environ 3 200 kg) et mesure plus de deux voitures compactes. Disponible cette année, Helios intègre les derniers GPU Instinct MI455X, les nouveaux processeurs Epyc « Venice » et les puces réseau Pensando « Vulcano » et « Salina ». Le MI455X, fabriqué en 2 nm et 3 nm, compte 320 milliards de transistors – une augmentation de 70 % par rapport au MI355X – et 432 Go de mémoire HBM4 empilée via la technologie 3D de AMD. Il offre jusqu’à 10 fois la performance du MI355X en inférence, poursuivant la trajectoire d’amélioration de 3 fois par génération. L’année prochaine, AMD dévoilera la série MI500, basée sur l’architecture CDNA 6, fabriquée en 2 nm et utilisant la mémoire HBM4E. Selon Su, cela permettra à AMD d’atteindre une amélioration de 1 000 fois de la performance IA en quatre ans. Le processeur Epyc Venice, à 2 nm, offrira jusqu’à 256 cœurs Zen 6, accompagnés d’un doublement de la bande passante mémoire et GPU, assurant un flux de données optimal pour les GPU MI455X. Les cartes liquide-refroidies de Helios intégreront quatre MI455X, un CPU Venice, et les puces réseau Pensando, permettant une bande passante de 800 Gb/s. Chaque rack Helios offre plus de 18 000 unités de calcul CDNA5, plus de 4 600 cœurs CPU Zen 6, une performance maximale de 2,9 exaflops, 31 To de mémoire HBM4, 260 To/s de bande passante à l’échelle interne et 43 To/s à l’échelle externe. Des dizaines de milliers de ces racks pourraient s’agréger dans un datacenter. AMD s’attaque ainsi à Nvidia, mais dans un marché dominé par un leader en constante évolution. À l’occasion du CES, Nvidia a aussi dévoilé ses prochaines générations de GPU Rubin, de CPU Vera basés sur Arm, ainsi que ses interconnexions NVLink et Spectrum Ethernet, et ses nouvelles cartes réseau et DPU. La course à l’IA à l’échelle yottascale est lancée.
