HyperAIHyperAI

Command Palette

Search for a command to run...

Microsoft dévoile la Maia 200, sa deuxième puce IA conçue pour renforcer sa position dans le cloud

Microsoft a dévoilé la deuxième génération de son processeur dédié à l’intelligence artificielle, une initiative visant à renforcer sa position sur le marché du cloud face à des concurrents comme Nvidia, Amazon et Google. Le Maia 200, présenté deux ans après le lancement du Maia 100 — un premier prototype jamais mis à disposition des clients cloud — marque une étape importante dans l’autonomie technologique de Microsoft. Scott Guthrie, vice-président exécutif du cloud et de l’IA chez Microsoft, a annoncé dans un billet de blog que ce nouveau chip offrira une « disponibilité plus large auprès des clients dans un avenir proche ». Selon Guthrie, le Maia 200 représente le système d’inférence le plus efficace jamais déployé par Microsoft. Des développeurs, chercheurs, laboratoires d’IA et contributeurs aux modèles open source pourront dès à présent postuler pour accéder à une version préliminaire du kit de développement logiciel. Ce processeur sera notamment utilisé par l’équipe superintelligence de Microsoft, dirigée par Mustafa Suleyman, ainsi que par des services clés comme Microsoft 365 Copilot, l’extension d’IA pour les logiciels de productivité professionnelle, et Microsoft Foundry, une plateforme dédiée au développement sur les modèles d’IA. Face à la croissance exponentielle de la demande liée aux modèles d’IA générative — notamment de la part d’entreprises comme Anthropic ou OpenAI, ou de celles construisant des agents d’IA — les fournisseurs de cloud peinent à équilibrer performance et consommation énergétique. Microsoft répond en équipant progressivement ses centres de données : les Maia 200 seront d’abord déployés dans la région américaine du Centre, puis dans la région Ouest 3, avant d’être étendus à d’autres zones. Le Maia 200 repose sur le procédé de fabrication de 3 nanomètres de Taiwan Semiconductor Manufacturing Co. (TSMC). Chaque serveur intègre quatre de ces puces connectées entre elles, et utilise des câbles Ethernet plutôt que le standard InfiniBand, que Nvidia a consolidé après son rachat de Mellanox en 2020. Microsoft affirme que le Maia 200 offre une performance 30 % supérieure à celle des alternatives équivalentes au même prix. En outre, chaque chip dispose d’une mémoire haute bande passante supérieure à celle des troisième génération de Trainium d’AWS ou des unités de traitement tensoriel de septième génération de Google. Grâce à une architecture permettant d’interconnecter jusqu’à 6 144 Maia 200, Microsoft parvient à réduire la consommation d’énergie et le coût total de possession. Cette capacité a déjà été démontrée en 2023, lorsque GitHub Copilot, l’assistant de codage d’IA de Microsoft, a fonctionné sur des processeurs Maia 100. Ce nouveau pas confirme l’engagement de Microsoft à maîtriser l’ensemble de la chaîne technologique de l’IA, depuis le matériel jusqu’aux services cloud.

Liens associés

Microsoft dévoile la Maia 200, sa deuxième puce IA conçue pour renforcer sa position dans le cloud | Articles tendance | HyperAI