Cerebras, Qwen3-235B 출시: 최고 성능 AI 모델로 기업 활용도 높여
Cerebras 시스템이 Qwen3-235B를 출시하며, 이 모델은 131K 컨텍스트 지원을 갖춘 세계에서 가장 빠른 프론티어 AI 모델로 자리매김했습니다. 이는 AI 모델의 성능에 혁신을 가져왔으며, 클로저 소스 모델의 10분의 1 비용으로 기업 AI 배포 방식을 근본적으로 변화시켰습니다. Cerebras의 CEO인 Andrew Feldman은 "Cerebras의 추론 기능을 통해 Cline 사용자들은 미래를 미리 경험할 수 있습니다. Cline은 문제 해결, 코드베이스 읽기, 그리고 실시간 코드 작성 등의 작업을 통해 개발자의 생산성을 크게 향상시킵니다"라고 말했습니다. Qwen3-235B의 성능과 특징 Qwen3-235B는 Alibaba의 모델로, 인공지능 분석 전문 회사 Artificial Analysis의 독립 테스트에서 Claude 4, Gemini 2.5, DeepSeek R1 등과 같은 선두 AI 모델들과 비교해 과학, 코딩, 일반 지식 벤치마크에서 비슷한 수준의 성능을 보였습니다. 이 모델은 효율적인 전문가 혼합 아키텍처를 사용해 뛰어난 컴퓨팅 효율성을 제공하며, 이로 인해 Cerebras는 입력 토큰 당 0.60달러, 출력 토큰 당 1.20달러의 저렴한 가격으로 이 모델을 제공할 수 있게 되었습니다. 이는 유사한 클로저 소스 모델 비용의 10분의 1에 불과합니다. 추론 시간의 획기적 단축 추론 모델은 일반적으로 느린 경향이 있으며, 간단한 질문에 몇 분이 걸리는 경우가 많습니다. Cerebras는 웨이퍼 스케일 엔진(Wafer Scale Engine)을 활용해 Qwen3-235B의 추론 속도를 초당 1,500토큰까지 끌어올렸습니다. 이로 인해 응답 시간은 1-2분에서 0.6초로 대폭 단축되었으며, 코딩, 추론, 깊은 RAG 워크플로우가 거의 즉시 이루어질 수 있게 되었습니다. Artificial Analysis의 측정 결과에 따르면, Cerebras는 현재 전 세계적으로 초당 1,000토큰 이상의 출력을 생성할 수 있는 프론티어 AI 모델을 제공하는 유일한 회사로, 실시간 AI 성능에 대한 새로운 기준을 설정했습니다. 131K 컨텍스트로 프로덕션급 코드 생성 가능 이 출시와 함께 Cerebras는 컨텍스트 길이 지원을 32K에서 131K 토큰으로 4배 확대했습니다. 이 확장은 큰 코드베이스와 복잡한 문서를 처리하는 모델의 능력을 직접적으로 향상시키며, 32K 컨텍스트로는 단순한 코드 생성 용도에 충분하지만, 131K 컨텍스트는 여러 파일과 수천 줄의 코드를 동시에 처리할 수 있어 프로덕션급 애플리케이션 개발을 가능하게 합니다. 131K 컨텍스트의 도입은 Cerebras가 기업 코드 생성 시장, 특히 생성형 AI의 가장 큰 성장 시장 중 하나로 진출하는 것을 의미합니다. Cline과의 전략적 파트너십 새로운 기능을 선보이기 위해 Cerebras는 180만 다운로드를 기록한 Microsoft VS Code용 주요 에이전틱 코딩 에이전트 Cline과 파트너십을 체결했습니다. Cline 사용자들은 이제 무료 계정에서 Qwen3-32B를 64K 컨텍스트로 이용할 수 있으며, 향후 Qwen3-235B를 131K 컨텍스트로 이용할 수 있게 됩니다. 이로 인해 Cline은 대안 제공자인 DeepSeek R1보다 10-20배 더 빠른 코드 생성 속도를 제공하게 됩니다. Saoud Rizwan, Cline의 CEO는 "Cerebras의 추론 기능 덕분에 Cline 사용자들은 미래를 미리 경험하고 있습니다. Cline은 실시간으로 문제를 해결하고, 코드베이스를 읽고, 코드를 작성하면서 개발자가 빠르게 반복작업을 수행할 수 있도록 도와줍니다. 이런 빠른 추론은 단순히 편리한 것이 아니라, AI가 실제로 개발자와 동기화될 때 가능한 것들을 보여줍니다"라고 강조했습니다. Cerebras의 경쟁력 Cerebras는 오늘 출시된 Qwen3-235B를 통해 OpenAI와 Anthropic의 클로저 소스 모델을 대체하는 오픈 대안을 찾는 개발자들에게 비슷한 수준의 모델 지능과 코드 생성 능력을 제공합니다. 더욱重要的是,Cerebras提供了其他AI提供商(无论是封闭源代码还是开源)都无法比拟的即时推理速度——超过每秒1,500个令牌,比GPU解决方案提高了10倍以上的开发人员生产力。所有这些都在领先闭源模型的十分之一令牌成本下实现。 Cerebras Systems 소개 Cerebras Systems는 혁신적인 컴퓨터 아키텍처, 컴퓨터 과학자, 딥러닝 연구원, 그리고 다양한 엔지니어들이 모여 생성형 AI를 가속하기 위해 설계된 새로운 클래스의 AI 슈퍼컴퓨터를 구축한 팀입니다. 주력 제품인 CS-3 시스템은 세계에서 가장 크고 빠른 상용 AI 프로세서인 Wafer-Scale Engine-3으로 구동되며, CS-3 시스템은 쉽게 클러스터링되어 세계에서 가장 큰 AI 슈퍼컴퓨터를 만들 수 있습니다. 또한, 분산 컴퓨팅의 복잡성을 피하여 모델 배치를 매우 간편하게 만듭니다. Cerebras Inference는 뛰어난 추론 속도를 제공하여 고객들이 최첨단 AI 애플리케이션을 만드는 데 필요한 역량을 제공합니다. 글로벌 주요 기업, 연구 기관, 정부가 Cerebras 솔루션을 사용해 독자적인 모델을 개발하고, 수백만 다운로드를 기록한 오픈소스 모델을 훈련시키고 있습니다. Cerebras 솔루션은 Cerebras Cloud와 온프레미스로 제공됩니다. 자세한 정보는 cerebras.ai 또는 LinkedIn, X, Threads에서 확인할 수 있습니다. 업계 전문가들은 Cerebras의 이번 출시를 통해 AI 모델의 성능과 비용 효율성 면에서 획기적인 발전이 이루어졌다고 평가합니다. 실시간 추론 속도와 대규모 컨텍스트 지원은 기업들이 AI 기술을 더욱 효과적으로 활용할 수 있는 기반을 마련하였습니다. Cerebras는 앞으로도 AI 분야에서 지속적인 혁신을 선도할 것으로 전망됩니다.