AMD dévoile ses routes CPU et GPU : Venice, Verano, Zen 6
AMD a considérablement renforcé sa position sur le marché des serveurs, passant d'une part de marché inférieure à 1 % en 2017 à près de 29 % fin 2025. Pour maintenir cette croissance, l'entreprise a adopté un rythme de sortie annuel pour ses processeurs et ses accélérateurs IA. À partir de 2026, la gamme EPYC Zen 6, codée Venice, sera la première à utiliser le procédé N2 (2nm) de TSMC. Ce processeur intègre jusqu'à 256 cœurs, soit une augmentation de 33 % par rapport à la génération actuelle, et s'appuiera sur le nouveau connecteur SP7 pour améliorer la capacité et la bande passante mémoire jusqu'à 1,6 To/s. La connectivité CPU-GPU sera également renforcée par l'adoption probable de la norme PCIe 6.0, doublant ainsi la bande passante vers les accélérateurs. En comparaison avec la série EPYC 9005 actuelle, AMD annonce une hausse de performance de jusqu'à 70 %. Une variante spécialisée, Venice-X, devrait être proposée avec un cache L3 étendu pour les plateformes souveraines et le calcul haute performance. Parallèlement, la génération 2027, nommée Verano, pourrait marquer une évolution technique majeure en intégrant la technologie d'alimentation par l'arrière (BSPDN) sur le nœud A16 de TSMC, sans nécessairement nécessiter une nouvelle microarchitecture complète. Sur le front de l'intelligence artificielle, la série Instinct MI400 lancée en 2026 reposera sur l'architecture CDNA 5. Trois modèles distincts seront déployés : le MI440X pour l'IA d'entreprise avec des formats de données de faible précision, le MI430X pour les environnements souverains et le calcul scientifique nécessitant une haute précision, et le MI455X en tant que modèle phare. Ce dernier vise les systèmes en rack à grande échelle avec une capacité de calcul atteignant 40 PFLOPS en FP4. Ces加速ateurs utiliseront la technologie UALink pour leur interconnexion. Le système de rack Helios, présenté comme la première solution en rack-scale d'AMD pour l'IA, combinera les processeurs EPYC Venice et jusqu'à 72 accélérateurs Instinct MI455X interconnectés par UALink. Cette configuration offrira 31 To de mémoire HBM4 et une puissance de calcul de 2900 PFLOPS. Bien que légèrement inférieure en puissance de calcul brute au système concurrent de Nvidia, la solution Helios présente un avantage en termes de capacité mémoire. Cependant, son déploiement général pourrait être repoussé au second semestre 2026 ou au premier semestre 2027 en raison d'incertitudes sur la disponibilité des commutateurs UALink, même si des contrats bilionnaires avec des géants comme Meta et OpenAI pourraient permettre des livraisons anticipées. Pour 2027, AMD prévoit le lancement de la série Instinct MI500 basée sur l'architecture CDNA 6. Ce système, baptisé MegaPod, s'étendra sur trois racks interconnectés et comprendra 64 processeurs EPYC Verano et 256 modules GPU, soit une densité d'accélérateurs nettement supérieure aux offres concurrentes. Ce déploiement massif, refroidi par liquide, vise à maintenir la compétitivité d'AMD face aux futures architectures de Nvidia jusqu'en 2028. Avec ces annonces, AMD consolide ses fondations pour rivaliser efficacement sur le marché de l'IA et des données à grande échelle.
