Qwen3-Coder, 세계에서 가장 강력한 코드 모델 출시
Qwen3-Coder: 세계에서의 주체적 코딩 오늘, 우리는 현재까지 가장 강력한 코드 모델인 Qwen3-Coder를 소개합니다. Qwen3-Coder는 여러 크기로 제공되며, 특히 그 중에서도 가장 강력한 버전인 Qwen3-Coder-480B-A35B-Instruct를 처음으로 공개하게 되어 기쁩니다. 이 모델은 480억 개의 매개변수와 35억 개의 활성 매개변수를 가진 전문가 혼합 모델로, 기본적으로 256K 토큰의 문맥 길이를 지원하며, 추론 방법을 사용하면 1M 토큰까지 가능합니다. Qwen3-Coder-480B-A35B-Instruct는 오픈 모델 중 Agentic Coding, Agentic Browser-Use, Agentic Tool-Use에서 새로운 최고 성능을 달성했으며, Claude Sonnet 4와 비교할 수 있는 성능을 제공합니다. Qwen3-Coder는 다양한 개발자 도구와 원활하게 호환되며, 디지털 세계 어디에서나 활용될 수 있도록 설계되었습니다. 우리는 Qwen3-Coder가 "세계에서의 주체적 코딩"이라는 목표를 이루기를 바랍니다. Qwen3-Coder 사전 학습 Qwen3-Coder의 사전 학습 단계에서는 모델의 핵심 능력을 강화하기 위해 여러 차원에서 확장을 진행했습니다. 특히 다음과 같은 두 가지 중요한 점에 중점을 뒀습니다: 코드 RL 확장: 경쟁 수준의 코드 생성에 집중하는 대부분의 커뮤니티와 달리, 우리 연구팀은 실제 세상에서 발생하는 다양한 코딩 작업에 적합한 실행 주도형 대규모 강화 학습을 적용했습니다. 이를 통해 다양성을 고려한 테스트 케이스를 자동으로 확장하여 고품질의 학습 데이터를 생성하고, 강화 학습의 잠재력을 완벽히 활용할 수 있었습니다. 결과적으로 코딩 실행 성공률이 크게 향상되었을 뿐만 아니라 다른 작업에도 긍정적인 영향을 미쳤습니다. 우리는 이러한 어려운 문제를 해결하면서도 쉽게 확인할 수 있는 작업들이 대규모 강화 학습의 비옥한 토양이 될 수 있다고 믿어, 계속해서 이 방향으로 탐구할 계획입니다. 장기 RL 확장: 실제 소프트웨어 엔지니어링 작업과 같이 Qwen3-Coder는 환경과의 다단계 상호작용이 필요합니다. 이는 계획 세우기, 도구 사용, 피드백 받기, 결정 내리기 등의 과정을 포함합니다. Qwen3-Coder의 후 학습 단계에서는 장기 RL (Agent RL)을 도입하여, 도구를 사용한 다단계 상호작용을 통해 실제 세상의 작업을 해결하도록 모델을 유도했습니다. Agent RL의 주요 도전 과제는 환경 확장이었는데, 이를 해결하기 위해 알리바바 클라우드 인프라를 활용해 20,000개의 독립적인 환경을 병렬로 실행할 수 있는 확장 가능한 시스템을 구축했습니다. 이 인프라는 대규모 강화 학습에 필요한 피드백을 제공하고, 대규모 평가를 지원합니다. 그 결과, Qwen3-Coder는 오픈소스 모델 중 SWE-Bench Verified에서 최고 성능을 달성했습니다. Qwen3-Coder 사용법 Qwen Code Qwen Code는 Gemini CLI에서 파생된 연구용 CLI 도구로, Qwen-Coder 모델들을 위한 향상된 파서와 도구 지원 기능을 제공합니다. Qwen Code를 사용하려면 먼저 nodejs 20+를 설치해야 합니다. 다음 명령어를 통해 설치할 수 있습니다: bash npm install -g qwen-code 또는 소스로부터 설치할 수도 있습니다: bash git clone https://github.com/Qwen-Dev/Qwen-Code.git cd Qwen-Code npm install npm link Qwen Code는 LLM 호출 시 OpenAI SDK를 지원하며, 필요한 환경 변수를 .env 파일에 설정할 수 있습니다. 이제 단순히 qwen을 입력하여 코딩을 즐겨보세요! Claude Code Qwen3-Coder는 Claude Code에서도 사용할 수 있습니다. 알리바바 클라우드 모델 스튜디오 플랫폼에서 API 키를 요청하고 Claude Code를 설치하면 코딩을 시작할 수 있습니다. 우리는 Qwen3-Coder와 Claude Code를 원활하게 연결하기 위한 두 가지 방법을 제공합니다: Claude Code 프록시 API Claude Code 프록시 API를 사용하면 Qwen3-Coder를 쉽게 접근할 수 있습니다. claude-code-config npm 패키지 claude-code-config npm 패키지는 claude-code-router를 사용하여 다른 백엔드 모델을 맞춤설정할 수 있게 해줍니다. 설치 방법은 다음과 같습니다: bash npm install -g claude-code-config 그 후, 설정을 실행합니다: bash ccr config 이 명령어는 자동으로 ccr를 위한 구성 JSON 파일과 플러그인 디렉토리를 생성합니다. 필요에 따라 ~/.claude-code-router/config.json과 ~/.claude-code-router/plugins/에서 직접 조정할 수도 있습니다. Claude Code를 사용하여 코딩을 시작하려면 다음 명령어를 실행하세요: bash ccr Cline 설정 Qwen3-Coder-480B-A35B-Instruct를 Cline에 연결하려면 다음 단계를 따르세요: Cline 설정 메뉴로 이동합니다. API 제공자를 'OpenAI 호환'으로 선택합니다. OpenAI 호환 API 키 필드에 Dashscope에서 얻은 키를 입력합니다. '사용자 지정 기본 URL 사용'을 체크하고 다음 주소를 입력합니다: https://dashscope-intl.aliyuncs.com/compatible-mode/v1 모델 이름으로 qwen3-coder-plus를 입력합니다. API 사용 예시 Qwen3-Coder의 API는 알리바바 클라우드 모델 스튜디오를 통해 직접 접근할 수 있습니다. 다음은 Qwen API를 사용하여 이 모델을 호출하는 방법의 예시입니다: ```python import dashscope response = dashscope.TextGeneration.call( model='qwen3-coder-480b-a35b-instruct', prompt='def hello_world():\n print("Hello, World!")' ) print(response) ``` 향후 계획 우리는 여전히 Qwen3-Coder의 성능을 개선하기 위해 노력하고 있으며, 특히 소프트웨어 엔지니어링에서 더 복잡하고 번거로운 작업을 맡을 수 있도록 하는 것이 목표입니다. 이를 통해 인간의 생산성을 더욱 높일 수 있을 것으로 기대됩니다. 또한, 다양한 크기의 Qwen3-Coder 모델들을 출시할 예정으로, 강력한 성능을 유지하면서 배포 비용을 줄일 계획입니다. 더 나아가, 코딩 에이전트가 스스로 개선되는지 여부를 actively 탐구하고 있어, 매우 흥미롭고 영감을 주는 방향으로 연구를 진행하고 있습니다. 업계의 평가 Qwen3-Coder의 출시는 AI 코딩 분야에서 큰 진전을 이루었다는 평가를 받고 있습니다. 특히 대규모 강화 학습을 통해 실제 세상의 코딩 작업에 대한 처리 능력이 크게 향상되었으며, 다양한 개발자 도구와의 호환성도 뛰어나다는 점에서 높은 평가를 받고 있습니다. 알리바바 클라우드의 강력한 인프라 지원 덕분에, Qwen3-Coder는 기존 모델들보다 훨씬 더 효율적이고 강력한 성능을 제공할 수 있게 되었습니다. 향후 연구 방향에 대해서도 많은 관심과 기대를 모으고 있어, AI 코딩 분야의 발전에 중요한 역할을 할 것으로 보입니다.