Amazon lance un nouvel puces AI Trainium4 avec NVLink Fusion, affirmant un business multibillionnaire
Amazon Web Services (AWS) a dévoilé de nouvelles avancées dans son écosystème d’infrastructure IA lors du congrès AWS re:Invent 2025, marquant une étape clé dans sa stratégie pour rivaliser avec NVIDIA. L’entreprise a présenté Trainium3, sa troisième génération de puces IA conçues en interne, offrant une performance plus de 4 fois supérieure à celle de Trainium2, avec 4 fois plus de mémoire et une efficacité énergétique améliorée de 40 %. Ces puces alimentent le système UltraServer, capable d’héberger jusqu’à 144 puces par serveur, et permettant de regrouper jusqu’à un million de puces dans une même infrastructure. Cette évolution permet une scalabilité massive pour l’entraînement et le déploiement d’IA agente ou à très grande échelle. AWS a également annoncé Trainium4, déjà en développement, qui intégrera la technologie NVLink Fusion de NVIDIA. Cette collaboration stratégique permettra aux systèmes Trainium4 de fonctionner en synergie avec les GPU NVIDIA grâce à une connectivité haute bande passante et faible latence. Cette interopérabilité est cruciale pour attirer des applications développées initialement pour CUDA, l’écosystème logiciel dominant de NVIDIA. En permettant aux clients de combiner puces AWS et NVIDIA dans une même infrastructure, AWS vise à réduire les barrières d’adoption tout en maintenant ses avantages de coût et de performance. Le cœur de cette stratégie repose sur NVLink Fusion, une plateforme d’infrastructure rack-scale conçue par NVIDIA et intégrée par AWS. Elle repose sur la technologie NVLink 6, permettant une connectivité all-to-all entre jusqu’à 72 puces personnalisées à 3,6 To/s par puce (260 To/s au total), ainsi que sur des commutateurs Vera-Rubin et une architecture MGX. Cette solution permet aux hyperscalers de réduire considérablement les délais de développement, les coûts et les risques liés à la conception d’infrastructures personnalisées, en s’appuyant sur un écosystème éprouvé de fournisseurs et de composants. Amazon souligne que Trainium2 est déjà un succès commercial majeur, avec plus d’un million de puces en production, 100 000 entreprises clientes, et un chiffre d’affaires annuel multi-billiards de dollars. Le succès est particulièrement marqué chez Anthropic, dont le projet Rainier – un cluster d’IA à grande échelle déployé à partir d’octobre – utilise plus de 500 000 puces Trainium2. AWS, investisseur dans Anthropic, en fait son partenaire principal pour l’entraînement des modèles Claude, malgré les partenariats croisés avec Microsoft. Malgré la domination de NVIDIA en matière de puces et d’écosystème CUDA, AWS affirme que ses puces offrent un meilleur rapport prix-performance. En combinant ses propres innovations matérielles (Trainium, Graviton, Nitro, EFAs) avec une architecture réseau éprouvée, AWS vise à proposer une alternative compétitive pour les entreprises cherchant à réduire leurs coûts tout en maintenant des performances élevées. En résumé, AWS poursuit une stratégie ambitieuse : développer une infrastructure IA complète, personnalisable et interopérable, tout en tirant parti des technologies leader du marché comme NVLink. Bien que peu de sociétés puissent véritablement détrôner NVIDIA, AWS cherche à capturer une part significative du marché en combinant innovation, coût maîtrisé et intégration stratégique. Avec Trainium3 déjà en production et Trainium4 en cours de développement, AWS renforce sa position comme acteur clé du paysage IA cloud.
