Alibaba dévoile Qwen3-235B-A22B-2507, un modèle open source performant qui dépasse Kimi-2 et s'adapte aux contraintes de calcul
Alibaba, géant de l’e-commerce chinois, a récemment lancé une mise à jour majeure de sa famille de modèles de langage à grande échelle (LLM) Qwen, avec le Qwen3-235B-A22B-2507, qui se distingue par ses performances supérieures sur plusieurs benchmarks, notamment face à des modèles concurrents tels que Kimi-2 de Moonshot et Claude Opus 4. Ce lancement, en juillet 2025, marque une évolution significative dans l’offre de l’entreprise, qui a déjà démontré une capacité technologique solide avec sa première version Qwen en 2023, suivie de Qwen 3 en 2025. Le Qwen3-235B-A22B-2507 améliore les tâches de raisonnement, la précision des faits, ainsi que la compréhension multilingue par rapport à sa version précédente. Il dépasse également le modèle non réfléchissant de Claude Opus 4. En plus de cela, il offre de meilleures performances en programmation, une meilleure alignement avec les préférences des utilisateurs et une gestion accrue des contextes longs. L’entreprise a également lancé une version FP8 (8 bits en virgule flottante), qui permet de réduire la consommation de mémoire et de calcul sans compromettre la performance. Cela rend le modèle plus accessible pour les entreprises, permettant de l’exécuter sur des équipements plus légers ou en cloud, ce qui réduit les coûts énergétiques et accélère les réponses. Le Qwen Team a annoncé qu’il ne développera plus de modèles hybrides, capables de basculer entre mode de raisonnement et mode non réfléchissant. Cette décision, prise après des discussions avec la communauté, vise à offrir des modèles séparés optimisés pour les tâches d’instruction et de raisonnement. Le Qwen3-235B-A22B-Instruct-2507 est actuellement un modèle non réfléchissant, ce qui rend ses réponses plus prévisibles et alignées avec les instructions des utilisateurs. Avec une licence Apache 2.0, le modèle est conçu pour les environnements d’entreprise, permettant une utilisation commerciale sans restrictions. Alibaba a également introduit Qwen-Agent, un framework léger facilitant l’intégration d’outils pour les systèmes agents. Des benchmarks comme TAU-Retail et BFCL-v3 montrent que le modèle peut gérer des tâches complexes, souvent réservées aux agents spécialisés. Les réactions de la communauté et de l’industrie sont positives. Des experts comme Paul Couvert et Jeff Boudier soulignent les avantages de la version FP8 et sa supériorité sur des modèles concurrents. Le modèle est perçu comme une solution flexible, performante et facile à déployer, attirant à la fois les amateurs et les professionnels. Alibaba prévoit de continuer à développer sa gamme Qwen, avec un modèle dédié au raisonnement en cours de conception et des améliorations en direction de systèmes plus agents. L’expansion du support multimodal est également attendue. En parallèle, des rumeurs évoquent un prochain modèle Qwen3-Coder-480B-A35B-Instruct, avec une taille de 480 milliards de paramètres et une capacité de contexte de 1 million de tokens. Le lancement de Qwen3-235B-A22B-Instruct-2507 illustre l’évolution des modèles open source, devenant des alternatives crédibles aux systèmes propriétaires. Grâce à sa flexibilité, sa performance générale et sa licence conviviale, Qwen3 se positionne comme un candidat sérieux pour les équipes souhaitant intégrer des modèles avancés sans contraintes de verrouillage ou de frais d’utilisation.