HyperAIHyperAI

Command Palette

Search for a command to run...

Microsoft stellt neuen leistungsstarken Chip für KI-Infereenz vor

Microsoft hat den Launch seines neuen Chips Maia 200 angekündigt, der als leistungsstarker Baustein für die Skalierung von KI-Inferenz entwickelt wurde. Der Maia 200 ist die Nachfolgeversion des Maia 100 aus dem Jahr 2023 und verfügt über über 100 Milliarden Transistoren. Er erreicht eine Leistung von mehr als 10 Petaflops bei 4-Bit-Präzision und rund 5 Petaflops bei 8-Bit-Genauigkeit – eine deutliche Steigerung gegenüber dem Vorgängermodell. Inference bezeichnet den Prozess, bei dem bereits trainierte KI-Modelle abgerufen und ausgeführt werden, im Gegensatz zum rechenintensiven Training. Mit dem Wachstum von KI-Unternehmen werden Inference-Kosten zunehmend zu einem zentralen Faktor im Betriebsaufwand, weshalb Optimierungen in diesem Bereich von großer Bedeutung sind. Microsoft hofft, mit dem Maia 200 Unternehmen dabei zu unterstützen, ihre KI-Infrastruktur effizienter und mit geringerem Energieverbrauch zu betreiben. Laut dem Unternehmen kann ein einzelner Maia 200-Node bereits die derzeit größten KI-Modelle problemlos ausführen und bietet zukünftig noch ausreichend Leistungsfähigkeit für noch größere Modelle. Der Maia 200 ist Teil einer wachsenden Entwicklung, bei der Tech-Riesen eigene Chips entwickeln, um ihre Abhängigkeit von Nvidia-GPUs zu verringern, die für KI-Anwendungen zunehmend entscheidend geworden sind. Google setzt bereits seit Jahren auf seine Tensor Processing Units (TPUs), die zwar nicht als physische Chips verkauft werden, aber über die Cloud zur Verfügung gestellt werden. Amazon hat kürzlich seine Trainium3-Chips vorgestellt, die ebenfalls auf KI-Acceleration spezialisiert sind. Microsoft positioniert den Maia 200 nun als direkte Konkurrenz zu diesen Lösungen. In der Pressemitteilung betont das Unternehmen, dass der Maia 200 die FP4-Leistung der dritten Generation von Amazon Trainium um das Dreifache übertrifft und die FP8-Leistung der siebten Generation von Google TPUs übertreffen kann. Der Maia 200 ist bereits im Einsatz bei Microsofts Superintelligence-Team und unterstützt die Funktionalität von Copilot, dem KI-Chatbot des Unternehmens. Zudem hat Microsoft ab dem 1. März eine Einladung an Entwickler, Wissenschaftler und fortschrittliche KI-Labore ausgesendet, um den Maia 200 Software Development Kit (SDK) in ihren Projekten zu testen. Damit will Microsoft die breite Nutzung und Integration des Chips in der KI-Community fördern. Die Einführung des Maia 200 unterstreicht Microsofts strategische Ausrichtung auf eigene Hardware, um die Kontrolle über KI-Infrastruktur, Kosten und Leistung zu stärken. Gleichzeitig zeigt der Chip, wie wichtig maßgeschneiderte Chips für die Zukunft der KI-Entwicklung werden. Durch die Kombination von hoher Effizienz, Skalierbarkeit und offener Zusammenarbeit mit externen Partnern positioniert sich Microsoft als ernstzunehmender Akteur im Wettbewerb um die nächste Generation von KI-Hardware.

Verwandte Links

Microsoft stellt neuen leistungsstarken Chip für KI-Infereenz vor | Aktuelle Beiträge | HyperAI