HyperAI
Back to Headlines

Cerebras lance Qwen3-235B : le modèle AI le plus rapide au monde avec un support de contexte de 131K tokens

il y a 8 jours

Cerebras lance Qwen3-235B : le modèle d'IA le plus rapide au monde avec une prise en charge intégrale de 131K tokens de contexte Un Bond en Avant pour le Machine Learning d'Entreprise Le 13 octobre 2023, Cerebras Systems a annoncé le lancement de Qwen3-235B, un modèle de frontier AI doté d'une prise en charge complète de 131K tokens de contexte sur sa plateforme de cloud inference. Cette avancée majeure combine un niveau d'intelligence frontière avec une rapidité inégalée, offrant aux entreprises une solution aux coûts divisés par dix par rapport aux modèles fermés, et transforme ainsi fondamentalement la manière dont l'IA est déployée dans le monde des affaires. performances Exceptionnelles en termes d'Intelligence Artificielle Selon des tests indépendants effectués par Artificial Analysis, Qwen3-235B rivalise en termes de performance avec d'autres modèles de pointe tels que Claude 4 Sonnet, Gemini 2.5 Flash et DeepSeek R1 dans diverses évaluations de compétences scientifiques, codages et connaissances générales. Ce modèle utilise une architecture mixture-of-experts (MoE) efficace qui optimise l'utilisation des ressources de calcul, permettant à Cerebras de proposer Qwen3-235B à un coût de 0,60 $ par million de tokens d'entrée et 1,20 $ par million de tokens de sortie, bien inférieur à celui des modèles fermés comparables. Réduction drastique du Temps de Raisonnablement Les modèles de raisonnement sont connus pour être lentement, nécessitant souvent des minutes pour fournir une réponse à une question simple. En se servant de son Wafer Scale Engine (WSE), Cerebras parvient à accélérer Qwen3-235B jusqu'à une vitesse inédite de 1 500 tokens par seconde, réduisant ainsi les temps de réponse de 1 à 2 minutes à seulement 0,6 seconde. Grâce à cette acceleration, des tâches complexes comme le codage, la résolution de problèmes et les workflows basés sur des documents de grandes tailles deviennent quasiment instantanées. Prise en Charge du Contexte Maximisée Parallèlement au lancement, Cerebras a quadruplé la longueur de contexte prise en charge, passant de 32K à 131K tokens. Cette extension améliore considérablement la capacité du modèle à traiter des bases de code et des documents complexes. Alors que 32K tokens suffisaient pour des cas simples de génération de code, 131K tokens permettent désormais de gérer simultanément de nombreux fichiers et des dizaines de milliers de lignes de code, facilitant ainsi le développement d'applications de qualité industrielle. Cette évolution fait de Cerebras un acteur majeur du marché de la génération de code pour entreprises, l'un des segments les plus importants et en croissance la plus rapide pour l'IA générative. Partenariat Stratégique avec Cline Pour mettre en évidence ces nouvelles capacités, Cerebras a établi un partenariat avec Cline, l’un des agents de codage agentiques les plus utilisés pour Microsoft VS Code, avec plus de 1,8 million d'installations. Désormais, les utilisateurs de Cline peuvent accéder aux modèles Qwen de Cerebras directement dans l'éditeur, en commençant par Qwen3-32B avec une prise en charge de 64K tokens de contexte sur la version gratuite. Ce déploiement s'étendra bientôt à Qwen3-235B et ses 131K tokens, offrant des vitesses de génération de code 10 à 20 fois plus rapides que celles de modèles concurrents comme DeepSeek R1. "Grâce à l'inference de Cerebras, les développeurs utilisant Cline ont un aperçu de l'avenir. Cline résout des problèmes, analyse des bases de code, et écrit du code presque en temps réel. Tout se passe si rapidement que les développeurs restent dans leur flux de travail, itérant à la vitesse de la pensée. Ce type d'inference ultra-rapide n'est pas merely un plus — il montre ce qui est possible lorsque l'IA suit le rythme des développeurs," a déclaré Saoud Rizwan, PDG de Cline. Un Nouveau Standard pour l'Inference en Temps Réel Avec ce lancement, Cerebras propose une offre d'inference considérablement élargie, répondant aux besoins des développeurs cherchant une alternative ouverte à OpenAI et Anthropic avec des niveaux comparables d'intelligence de modèle et de capacités de génération de code. De plus, Cerebras est le seul fournisseur d'IA au monde, que ce soit fermé ou ouvert, capable de fournir une vitesse de raisonnement instantané dépassant les 1 500 tokens par seconde, augmentant ainsi la productivité des développeurs de manière significative par rapport aux solutions GPU. Tout cela est livré à un coût par token dix fois inférieur à celui des modèles fermés de pointe. Évaluation et Profil de l'Entreprise L'annonce de Cerebras marque un tournant majeur dans le domaine de l'inference d'IA en entreprise. Son modèle Qwen3-235B offre non seulement une précision et des performances similaires à celles des modèles fermés haut de gamme, mais aussi une rapidité et une efficacité inégalées, ce qui positionne Cerebras en leader de l'IA générative accessible et performante. Cerebras Systems réunit des experts en architectures informatiques, sciences de l'information, recherche en apprentissage profond et ingénierie. L'entreprise a conçu un nouveau type de superordinateur IA, le CS-3 System, alimenté par le plus grand et le plus rapide processeur IA commercialement disponible, le Wafer Scale Engine-3 (WSE-3). Ce système peut être regroupé sans复杂性,以创建世界上最大的AI超级计算机,并通过避免分布式计算的复杂性使其易于上手。Cerebras解决方案已广泛应用于领先企业、研究机构和政府,致力于开发前沿自有模型并训练数百万次下载的开源模型。无论是在Cerebras Cloud平台上还是本地部署,客户都能利用Cerebras解决方案打造尖端的AI应用程序。 (Corrige la section finale en français pour la clarté et la cohérence) Cerebras Systems rassemble des spécialistes en architectures informatiques, sciences de l'information, recherche en apprentissage profond et ingénierie de tous types. L'entreprise a conçu une nouvelle génération de superordinateur d'IA, le CS-3 System, alimenté par le plus grand et le plus rapide processeur IA disponible commercialement, le Wafer Scale Engine-3 (WSE-3). Ces systèmes peuvent être regroupés simplement pour créer les superordinateurs d'IA les plus puissants au monde, et l'utilisation de ces modèles est rendue facile grâce à l'évitement de la complexité liée au calcul distribué. Les solutions de Cerebras sont utilisées par des entreprises, des instituts de recherche et des gouvernements de premier plan pour developpement de modèles propriétaires innovants et pour entraîner des modèles opensource téléchargés plusieurs millions de fois. Les solutions de Cerebras sont disponibles via le Cerebras Cloud ou sur site. Pour plus d'informations, visitez cerebras.ai ou suivez-nous sur LinkedIn, X et Threads.

Related Links