HyperAIHyperAI

Command Palette

Search for a command to run...

Microsoft dévoile un puissant nouveau puce pour l'inference IA

Microsoft a annoncé le lancement de son nouveau processeur Maia 200, conçu pour accélérer l’inférence des modèles d’intelligence artificielle. Ce chip, successeur du Maia 100 lancé en 2023, représente une avancée significative en termes de puissance et d’efficacité. Doté de plus de 100 milliards de transistors, il offre une performance de plus de 10 petaflops en précision 4 bits et environ 5 petaflops en 8 bits, soit une amélioration notable par rapport à son prédécesseur. L’inférence, qui consiste à exécuter un modèle d’IA après son entraînement, représente aujourd’hui une part croissante des coûts opérationnels pour les entreprises spécialisées dans l’IA. Microsoft espère que le Maia 200 permettra de réduire ces coûts tout en diminuant la consommation énergétique, rendant les opérations plus fluides et durables. Le Maia 200 est conçu pour gérer les plus grands modèles d’IA actuels avec une marge de sécurité suffisante pour les futures générations de modèles encore plus volumineux. Microsoft affirme que chaque nœud Maia 200 peut facilement exécuter les modèles les plus avancés, ce qui en fait un outil stratégique pour les infrastructures d’IA à grande échelle. Le chip fait partie d’une tendance croissante chez les géants technologiques, qui développent leurs propres puces pour réduire leur dépendance aux GPU de Nvidia, devenus essentiels pour l’IA mais aussi rares et coûteux. Google, Amazon et d’autres acteurs ont déjà adopté cette approche. Google utilise ses TPUs (Tensor Processing Units), des accélérateurs dédiés accessibles via son cloud, tandis qu’Amazon a lancé récemment sa troisième génération de chip Trainium3. Le Maia 200 se positionne comme un concurrent direct : Microsoft affirme qu’il offre trois fois plus de performance en précision FP4 que les Trainium de troisième génération d’Amazon, et une performance FP8 supérieure à celle des TPUs de septième génération de Google. Le Maia 200 est déjà utilisé au sein de Microsoft pour alimenter les modèles de l’équipe Superintelligence et soutenir le fonctionnement de Copilot, son assistant conversationnel. Le 15 avril, l’entreprise a également lancé un kit de développement logiciel (SDK) pour le Maia 200, qu’elle propose à des développeurs, chercheurs universitaires et laboratoires d’IA de pointe afin qu’ils puissent l’intégrer à leurs propres charges de travail. Cette ouverture vise à stimuler l’écosystème autour du chip et à renforcer la position de Microsoft dans la course à l’IA. En somme, le Maia 200 illustre la stratégie de Microsoft de maîtriser davantage son infrastructure technologique, en combinant innovation matérielle, optimisation énergétique et collaboration ouverte. Avec ce nouveau processeur, Microsoft s’impose comme un acteur clé dans la transition vers une IA plus accessible, efficace et indépendante des fournisseurs traditionnels.

Liens associés

Microsoft dévoile un puissant nouveau puce pour l'inference IA | Articles tendance | HyperAI