HyperAIHyperAI

Command Palette

Search for a command to run...

GLM-5 débarque : le premier modèle de pointe chinois en open-source, entraîné sans NVIDIA et au prix imbattable

Le 11 février 2026, à quelques jours de la Fête chinoise du Nouvel An, Z.ai a lancé officiellement GLM-5, son nouveau modèle de langage de pointe, marquant ainsi une étape décisive dans l’évolution de l’intelligence artificielle en Chine. Ce modèle, classé numéro 1 parmi les modèles open-weight sur Artificial Analysis et numéro 1 parmi les modèles ouverts sur LMArena (score 1452, 11e au classement général), affiche des performances impressionnantes : 77,8 % sur SWE-bench Verified, 92,7 % sur AIME 2026, 86,0 % sur GPQA-Diamond, et des résultats leaders dans des benchmarks spécialisés comme BrowseComp, Vending Bench 2 et MCP-Atlas. GLM-5 est un modèle Mixture-of-Experts de 744 milliards de paramètres, avec 40 milliards d’unités actives par jeton — une augmentation d’environ 2x par rapport à GLM-4.5. La quantité de données d’entraînement est passée de 23 à 28,5 téra-tokens, et le modèle intègre désormais une attention sparse DeepSeek (DSA) pour une gestion efficace de contextes longs, jusqu’à 200 000 tokens. Disponible sous licence MIT sur Hugging Face, via l’API Z.ai et OpenRouter, GLM-5 représente une avancée technique et stratégique majeure. Un aspect crucial réside dans son entraînement entièrement réalisé sur des puces Huawei Ascend, via le cadre MindSpore, sans dépendance aux GPU NVIDIA. Cette réalisation est particulièrement significative vu que Zhipu a été placée sur la liste des entités américaines en janvier 2025, interdisant l’accès aux H100/H200. Le succès de GLM-5 sous ces contraintes démontre la faisabilité d’un écosystème de calcul domestique à l’échelle de modèle de pointe. Sur les benchmarks, les performances en codage sont remarquables. Le score de 77,8 % sur SWE-bench Verified le place au-dessus de Gemini 3 Pro (76,2 %) et GPT-5.2 (75,4 %), bien qu’il reste derrière Claude Opus 4.5 (80,9 %). Sur son propre test interne CC-Bench-V2, GLM-5 atteint 98 % de réussite sur les tâches frontend et 74,8 % de correction end-to-end, soit une amélioration de 26 % par rapport à GLM-4.7. Ces résultats soutiennent la transition vers une « ingénierie agente », notamment illustrée par le succès du Vending Bench 2, où le modèle gère une entreprise de distributeurs automatiques sur une année entière. Une autre avancée notable : un score de -1 sur l’indice AA-Omniscience, soit une amélioration de 35 points, indiquant une meilleure capacité à reconnaître ses limites plutôt que de générer des hallucinations. Avant le lancement officiel, OpenRouter avait lancé en secret « Pony Alpha », un modèle anonyme avec une fenêtre contextuelle de 200K tokens, traitant plus de 40 milliards de tokens en un jour. Les indices — style de sortie, identification comme GLM sous certaines requêtes, timing — pointent clairement vers Zhipu. Ce déploiement en mode « stealth » permettait un test en conditions réelles, sans le bruit du hype, une stratégie déjà utilisée avec Quasar Alpha (GPT-4.1) ou Sherlock Alpha (Grok 4.1 Fast). En termes de tarification, l’API GLM-5 est à 1 $ par million de tokens d’entrée et 3,20 $ pour la sortie — soit environ 5 fois moins cher en entrée et 8 fois moins cher en sortie que Claude Opus 4.6. Malgré cela, le prix reste élevé, notamment pour un modèle de 744B paramètres, dont le déploiement local nécessite au moins 8 H200 (ou H20). Il s’agit donc principalement d’un modèle d’API, inaccessible à la majorité des utilisateurs. GLM-5 marque une rupture structurelle : Zhipu devient la première entreprise mondiale de modèles fondamentaux cotée en bourse, après un IPO à Hong Kong en janvier 2026 qui a levé 558 millions de dollars à une valorisation de 7,1 milliards. Cela contraste avec la situation d’OpenAI et Anthropic, toujours privées. De plus, l’adoption de l’architecture DeepSeek Sparse Attention et des recettes d’entraînement de DeepSeek confirme leur leadership technique. L’indépendance matérielle est désormais une réalité : GLM-5 s’exécute sur des puces Huawei Ascend, Moore Threads, Cambricon et Kunlunxin. Cependant, des lacunes persistent : absence de prise en charge multimodale (contrairement à Kimi K2.5), et des rapports d’utilisateurs signalant une moindre « prise de contexte » par rapport à Claude. Certains remettent en question la méthodologie des benchmarks, soulignant la nécessité de tests indépendants. En somme, GLM-5 est le modèle open-weight le plus puissant à ce jour pour les tâches de codage et d’agence, conçu sur une infrastructure chinoise autonome, malgré les sanctions américaines. C’est une victoire technique, stratégique et symbolique pour l’industrie de l’IA chinoise.

Liens associés