Amazon lance des « AI Factories » on-premises en partenariat avec Nvidia pour répondre aux exigences de souveraineté des données
Amazon lance une nouvelle offre, baptisée « AI Factories », pour répondre aux exigences des grandes entreprises et des gouvernements soucieux de la souveraineté des données. Cette solution, présentée mardi par AWS, permet à ces organisations de déployer des systèmes d’intelligence artificielle d’Amazon dans leurs propres centres de données, sans avoir à transférer leurs données vers des infrastructures externes. En clair, le client fournit l’infrastructure physique et l’électricité, tandis qu’AWS installe, gère et intègre l’ensemble du système d’IA, qui peut être connecté aux services cloud AWS existants. L’objectif est clair : offrir un contrôle total sur les données, évitant ainsi qu’elles ne transitent par des fournisseurs tiers ou ne soient exposées à des acteurs étrangers ou concurrents. Contrairement aux modèles traditionnels d’IA en cloud, cette approche ne nécessite pas de partager ni les données ni même le matériel. Le nom « AI Factories » n’est pas anodin. Il s’inspire directement du concept développé par Nvidia pour désigner ses systèmes d’infrastructure haute performance dédiés à l’IA, regroupant des puces GPU, des réseaux spécialisés et des composants matériels avancés. AWS collabore étroitement avec Nvidia pour cette initiative. Les AI Factories d’AWS combinent donc des technologies des deux entreprises : les clients peuvent choisir entre les dernières GPU Blackwell de Nvidia ou le nouveau puce Trainium3 d’Amazon, tout en bénéficiant de l’infrastructure réseau, de stockage, de bases de données et de sécurité maison d’AWS. Ils peuvent également accéder à Amazon Bedrock, le service de gestion et de sélection de modèles d’IA, ainsi qu’à SageMaker, l’outil de création et d’entraînement de modèles. Il est intéressant de noter que AWS n’est pas le seul géant du cloud à s’engager dans cette voie. En octobre, Microsoft avait déjà présenté ses propres « AI Superfactories », des centres de données de pointe en cours de construction au Wisconsin et en Géorgie, conçus pour exécuter les charges de travail d’OpenAI. Ces installations s’appuient sur les technologies Nvidia, mais Microsoft n’avait alors pas annoncé la possibilité de déployer ces systèmes dans des environnements privés. Plus récemment, Microsoft a précisé qu’il prévoyait de déployer des centres de données locaux dans plusieurs pays pour répondre aux exigences de souveraineté des données. Bien que ses solutions incluent déjà Azure Local — une offre de matériel géré installé sur site — l’évolution vers des architectures hybrides et privées rappelle fortement les tendances du début des années 2010, lorsque les entreprises redoutaient la dépendance aux clouds publics. Ainsi, loin de marquer la fin du cloud public, l’essor de l’IA pousse les géants du cloud à réinvestir massivement dans les infrastructures privées et hybrides, révélant une nouvelle phase de convergence entre sécurité, contrôle et puissance computationnelle.
