HyperAIHyperAI

Command Palette

Search for a command to run...

GLM-4.7-Flash : le modèle MoE de 30B puissant et léger débarque sur Hugging Face

GLM-4.7-Flash est un modèle d'intelligence artificielle de 30 milliards de paramètres (30B) basé sur une architecture MoE (Mixture of Experts) avec 3 milliards de paramètres actifs (A3B), développé par Zai-org. Il s'agit du modèle le plus performant de sa catégorie, conçu pour offrir un équilibre optimal entre puissance et efficacité, en particulier pour les déploiements légers. Il excelle dans des tâches complexes telles que le raisonnement, la programmation et l'interaction agente, tout en étant optimisé pour une exécution rapide et économique. Sur plusieurs benchmarks standard, GLM-4.7-Flash se distingue nettement. Il obtient 91,7 points sur AIME, 75,2 sur GPQA, 64,0 sur LCB v6, 14,4 sur HLE, 59,2 sur SWE-bench Verified et 79,5 sur τ²-Bench, surpassant largement des modèles comparables comme Qwen3-30B-A3B-Thinking-2507 et GPT-OSS-20B. Son excellente performance sur BrowseComp (42,8) montre également sa capacité à interagir efficacement avec des outils externes, ce qui en fait un candidat idéal pour des applications pratiques. Pour un déploiement local, le modèle est compatible avec les frameworks vLLM et SGLang, qui permettent une inference haute performance grâce à la parallélisation tensorielle et à des techniques avancées comme le speculative decoding. L’installation requiert des versions spécifiques : pour vLLM, il faut utiliser la branche principale avec pip install -U vllm --pre et installer la version git de Hugging Face Transformers. Pour SGLang, il faut également utiliser la version git de Transformers, puis lancer le serveur avec des paramètres spécifiques comme --speculative-algorithm EAGLE et --mem-fraction-static 0.8. Une configuration typique utilise 4 unités de traitement (TP-size 4) pour une bonne scalabilité. L’API GLM-4.7-Flash est disponible via la plateforme Z.ai, permettant un accès rapide sans configuration locale. Le modèle est également disponible sur Hugging Face, où il peut être chargé directement avec transformers et torch, en utilisant le format de chat et en activant le mode bfloat16 pour une meilleure performance. Une requête simple peut être exécutée via un prompt d’entrée, avec génération de texte jusqu’à 128 tokens, en mode non aléatoire (do_sample=False). Enfin, les chercheurs sont invités à citer le papier technique GLM-4.5, qui documente les fondations de ce modèle, notamment ses capacités agentes, de raisonnement et de codage. Ce travail, publié sur arXiv en 2025, est une référence clé pour comprendre l’évolution des modèles fondamentaux dans le domaine du langage. Évaluation : Selon des experts du secteur, GLM-4.7-Flash représente une avancée significative dans l’optimisation des modèles de grande taille pour des usages pratiques. Son utilisation de l’architecture MoE permet une efficacité énergétique et économique supérieure, tout en maintenant des performances de haut niveau. Zai-org, déjà reconnu pour ses contributions à GLM, continue de renforcer sa position dans le paysage des modèles open-source, notamment grâce à des outils de déploiement robustes et à une documentation claire. Ce modèle devrait être particulièrement pertinent pour les applications nécessitant un équilibre entre performance, coût et rapidité d’exécution.

Liens associés

GLM-4.7-Flash : le modèle MoE de 30B puissant et léger débarque sur Hugging Face | Articles tendance | HyperAI