China stellt frontier-Modell GLM-5 vor – auf eigenem Hardware-Stack und mit Open-Source-Lizenz
Am 11. Februar 2026 veröffentlichte die chinesische KI-Firma Zhipu AI mit Z.ai den Frontier-Modell GLM-5, das als erstes Open-Weight-Modell weltweit die Spitzenposition in mehreren Benchmark-Tests erreicht. GLM-5 erreichte mit 1452 Punkten die Nummer eins auf LMArena’s Text Arena und führt offene Modelle in Benchmarks wie SWE-bench Verified (77,8 %), AIME 2026 (92,7 %) und GPQA-Diamond (86,0 %). Es übertrifft auch spezifische Leistungen wie BrowseComp, Vending Bench 2 und MCP-Atlas. Der Modellarchitektur liegt ein 744B-Parameter-Mixture-of-Experts-System zugrunde, das pro Token 40B aktive Parameter nutzt – eine Verdoppelung gegenüber GLM-4.5. Die Trainingsdaten stiegen von 23T auf 28,5T Tokens, und die Einführung von DeepSeek Sparse Attention ermöglicht eine effiziente Behandlung von bis zu 200.000 Tokens im Kontext. GLM-5 wird unter der MIT-Lizenz auf Hugging Face veröffentlicht, steht über die Z.ai-API und OpenRouter zur Verfügung. Ein zentraler technischer und geopolitischer Aspekt: Das Modell wurde ausschließlich auf Huawei Ascend-Chips mit dem MindSpore-Framework trainiert – ohne jegliche Abhängigkeit von NVIDIA-Hardware. Dies ist besonders signifikant, da Zhipu seit Januar 2025 auf der US-Entity-Liste steht und keinen Zugriff auf H100/H200-GPUs hat. Die Fähigkeit, ein frontier-class-Modell unter diesen Bedingungen zu entwickeln, unterstreicht die Reife der chinesischen heimischen Chip- und Software-Infrastruktur. Die Benchmarks zeigen nicht nur technische Fortschritte, sondern auch eine strategische Ausrichtung: Auf dem internen CC-Bench-V2 erreicht GLM-5 eine 98 %ige Erfolgsrate beim Frontend-Build und 74,8 % End-to-End-Korrektheit – ein 26-prozentiger Sprung gegenüber GLM-4.7. Dies wird als Übergang von „Vibe-Coding“ zu „Agentic Engineering“ interpretiert, unterstützt durch das Vending Bench 2-Experiment, bei dem der Modell ein simuliertes Geschäft über ein Jahr hinweg führt. Ein weiterer Fortschritt: Der AA-Omniscience Index von Artificial Analysis verbesserte sich um 35 Punkte auf -1, was bedeutet, dass GLM-5 besser darin ist, „ich weiß es nicht“ zu sagen – ein entscheidender Vorteil für Produktionsanwendungen. Der Hintergrund der Veröffentlichung ist ebenso faszinierend wie strategisch: Kurz vor dem Launch erschien auf OpenRouter „Pony Alpha“ – ein anonymes Modell mit 200K-Context, das über 40 Milliarden Tokens am ersten Tag verarbeitete. Die Gemeinschaft vermutete schnell, dass es sich um GLM-5 handelt. Die Hinweise – Identifikation als GLM bei bestimmten Eingaben, stilistische Übereinstimmung, Timing – waren überzeugend. OpenRouter nutzt solche „Stealth-Drops“ bereits für frühe Testphasen (ähnlich Quasar Alpha = GPT-4.1), um echte Nutzungsdaten zu sammeln, ohne den Hype zu beeinflussen. Preislich liegt GLM-5 mit 1 USD pro Million Eingabetokens und 3,20 USD pro Million Ausgabetokens deutlich unter Claude Opus 4.6 (5/25 USD), etwa fünfmal günstiger bei Eingabe, fast achtmal bei Ausgabe. Dennoch ist der Preis gegenüber früheren Versionen und anderen chinesischen MoEs erhöht. Die Einführung des GLM-Coding-Plans mit 30 % Preiserhöhung spiegelt hohe Nachfrage wider, was sich in einem 34-prozentigen Kursanstieg der Hongkong-listeten Aktie zeigte. Trotz der Leistungsstärke bleibt GLM-5 ein reines Textmodell ohne native Multimodalität – ein Nachteil gegenüber Moonshot AI’s Kimi K2.5. Zudem berichten frühe Nutzer von eingeschränkter situativer Wahrnehmung im Vergleich zu Claude, was die Kollaborationsfähigkeit beeinträchtigt. Auch die Benchmark-Methodik wird kritisch hinterfragt, was auf eine zunehmend technisch versierte Community hindeutet. GLM-5 markiert einen Wendepunkt: Zhipu ist nun die weltweit erste öffentlich gehandelte Foundation-Model-Firma, nach einem IPO im Januar 2026 mit 558 Millionen US-Dollar bei einer Bewertung von 7,1 Milliarden. Gleichzeitig unterstreicht der Erfolg von DeepSeek Sparse Attention, dass DeepSeek weiterhin technologisch führend ist. Die Nutzung einer vollständig domänenbasierten Hardware-Stack – Ascend, Moore Threads, Cambricon, Kunlunxin – zeigt, dass Hardware-Unabhängigkeit keine Theorie mehr ist, sondern praktikable Realität. Bewertung: Industrielle Experten sehen in GLM-5 einen Meilenstein für die Unabhängigkeit der chinesischen KI-Industrie. Die Kombination aus technischer Spitzenleistung, geopolitischer Resilienz und marktlicher Innovationskraft unterstreicht die wachsende Bedeutung Chinas im globalen KI-Wettbewerb. Zhipu zeigt, dass auch unter Sanktionen ein kompetitiver Frontier-Modell entwickelt werden kann. Allerdings bleibt die fehlende Multimodalität und die hohe Infrastrukturanforderung (mindestens 8 H200s für FP8-Inference) Herausforderungen. Der Erfolg von GLM-5 ist weniger ein Modell für alle, sondern ein Signal: Die Zukunft der KI wird zunehmend multipolar – und China ist nun ein unverzichtbarer Akteur.
