AWS mise sur ses accélérateurs Trainium pour dominer l’ère de l’IA générative
Amazon Web Services (AWS) affiche une confiance renouvelée dans ses accélérateurs d’intelligence artificielle maison, les Trainium, en pleine expansion dans le contexte de la révolution de l’IA générative. Alors que les hyperscaleurs cherchent à maîtriser le rapport performance/prix pour optimiser leurs marges, AWS s’impose comme un acteur clé en combinant ses propres puces Trainium avec l’offre de Nvidia. Le Trainium2, déjà largement déployé, connaît une demande phénoménale : Andy Jassy, PDG d’Amazon, a annoncé qu’il est entièrement souscrit, génère un chiffre d’affaires annuel multipliant ses revenus par 2,5 en un trimestre, et représente désormais une activité à plusieurs milliards de dollars. Ce succès s’explique par une performance 30 à 40 % supérieure à celle des alternatives sur les charges de travail IA, selon Jassy. Le Trainium2 est désormais au cœur des infrastructures d’AWS, notamment dans Bedrock et SageMaker, où la majorité des tokens traités ou générés sont calculés sur ces puces. Ce positionnement marque une évolution stratégique : AWS semble progressivement marginaliser sa gamme Inferentia, dédiée à l’inférence, au profit d’un seul produit polyvalent, capable de couvrir à la fois l’entraînement et l’inférence. Une évolution qui pourrait justifier un renommage en « AInium ». L’avenir s’annonce encore plus ambitieux avec le Trainium3, en cours de développement avec Anthropic. Prévu en prévisualisation à la fin de l’année 2025, il devrait être livré à grande échelle en 2026. Basé sur une gravure 3 nm de TSMC, il promet deux fois la performance du Trainium2 et une efficacité énergétique supérieure de 40 %. Son déploiement s’inscrit dans le cadre du projet Ranier, un supercluster de 500 000 puces Trainium2, avec une capacité ciblée à 1 million d’ici la fin de l’année. Ce système, 5 fois plus puissant que les clusters GPU précédents d’Anthropic, illustre la volonté d’AWS de construire des infrastructures dédiées à l’entraînement des modèles les plus avancés, comme les dernières versions de Claude. Parallèlement, AWS continue de déployer massivement sa capacité datacenter : 3,8 GW ajoutés au cours des 12 derniers mois, plus 1 GW prévu en quatrième trimestre. Le groupe prévoit de doubler sa capacité totale d’ici 2027, passant d’environ 4 GW en 2022 à près de 20 GW. Cette croissance exponentielle soulève des défis logistiques et financiers : un GW d’infrastructure IA pourrait coûter entre 37 et 50 milliards de dollars selon le mix GPU ou accélérateurs maison. Si AWS équilibre ses investissements entre Trainium et GPU, la moitié de ses dépenses en matériel IA (environ 256 milliards de dollars sur 2026-2027) pourrait aller vers les puces maison, bien que les GPU restent plus chers à louer. Sur le plan financier, AWS a généré 33,1 milliards de dollars de revenus au troisième trimestre 2025, en hausse de 20,2 %, avec un bénéfice opérationnel de 11,43 milliards (croissance de 9,4 %). Malgré une pression sur la marge, le segment cloud affiche une croissance soutenue, portée par la demande IA. Le cœur du business — calcul, stockage et réseau — a généré 19,47 milliards de dollars de revenus, en hausse de 33,8 %, dépassant même la croissance des services logiciels comme les bases de données ou les frameworks IA. Les experts du secteur soulignent que cette stratégie d’auto-développement de puces est une réponse stratégique à la dépendance aux GPU Nvidia, tout en renforçant l’attractivité d’AWS comme plateforme intégrée pour les entreprises de l’IA. L’engagement d’Anthropic, la croissance de Trainium, et l’expansion massive des datacenters indiquent que AWS n’est pas seulement un fournisseur de cloud, mais un acteur central dans l’architecture future de l’IA.