Microsoft stellt zweite Generation seines KI-Chips vor
Microsoft hat die zweite Generation seines künstlichen Intelligenz-Chips, den Maia 200, vorgestellt, als Teil seiner Strategie, die eigene Cloud-Infrastruktur zu stärken und die Abhängigkeit von führenden Anbietern wie Nvidia zu verringern. Der Maia 200 folgt auf den Maia 100, der vor zwei Jahren vorgestellt, aber nie kommerziell angeboten wurde. Laut Scott Guthrie, Executive Vice President für Cloud und KI bei Microsoft, ist der neue Chip „das leistungsfähigste Inferenzsystem, das Microsoft je eingesetzt hat“. Er verspricht eine 30-prozentige Leistungssteigerung gegenüber vergleichbaren Lösungen bei gleichem Preis. Die Chips werden in den USA in den Rechenzentrenregionen U.S. Central und später U.S. West 3 eingesetzt, mit weiteren Standorten in Planung. Sie basieren auf dem 3-Nanometer-Fertigungsverfahren von Taiwan Semiconductor Manufacturing Co. (TSMC) und werden in Servern in Gruppen von vier verbunden. Im Gegensatz zu Nvidia, das InfiniBand für Hochgeschwindigkeitsverbindungen nutzt, setzt Microsoft auf Ethernet, was Kosten und Komplexität senken soll. Die Maia 200-Chips sind besonders für die Inferenzphase von KI-Modellen optimiert – also die Phase, in der bereits trainierte Modelle für Echtzeit-Ausgaben genutzt werden. Microsoft betont, dass der Chip mehr Hochbandbreiten-Speicher bietet als die dritte Generation des Trainium-Chips von Amazon Web Services oder Googles siebte Generation des Tensor Processing Units (TPU). Mit der Möglichkeit, bis zu 6.144 Maia 200-Chips in einer einzigen Infrastruktur zu verbinden, soll die Energieeffizienz und der Gesamtkosten-Nutzen erheblich verbessert werden. Entwickler, Forscher und Open-Source-Beiträger können bereits jetzt eine Vorschau auf das Software-Entwicklungspaket beantragen. Die neue Hardware wird von mehreren Microsoft-Produkten genutzt, darunter der Microsoft 365 Copilot für Produktivitätssoftware und der Microsoft Foundry-Service zur Entwicklung auf Basis von KI-Modellen. Auch das interne Superintelligenz-Team um Mustafa Suleyman wird den Chip einsetzen. Die Ankündigung kommt in einer Zeit, in der Cloud-Anbieter wie Amazon, Google und Microsoft um die Vorherrschaft bei KI-Infrastruktur kämpfen. Die Nachfrage nach Rechenleistung steigt rasant, insbesondere durch Entwickler von generativen KI-Modellen wie Anthropic und OpenAI sowie Unternehmen, die auf Basis bestehender Modelle eigene KI-Agenten bauen. Industrieexperten sehen in der Maia 200-Entwicklung eine klare Strategie von Microsoft, die Kontrolle über die KI-Infrastruktur zu vergrößern und die Abhängigkeit von Nvidia zu reduzieren. Die Entscheidung für Ethernet statt InfiniBand ist als riskant, aber kosteneffizient bewertet. Analysten betonen, dass die Fähigkeit, große Chip-Netzwerke mit geringem Energieverbrauch zu betreiben, entscheidend für die Wettbewerbsfähigkeit im Cloud-KI-Markt ist. Microsofts Investition in eigene Chips unterstreicht die Transformation der Cloud-Strategie hin zu einer integrierten, selbstbestimmten KI-Infrastruktur.
