一键部署 DeepCoder-14B-Preview
一、教程简介
DeepCoder-14B-Preview 项目是由 AGENTICA 于 2025 年 4 月 8 日发布的 14B 编码模型。模型是从 DeepSeek-R1-Distilled-Qwen-14B LLM 微调而来的代码推理,使用分布式强化学习 (RL) 扩展到长上下文长度。该模型在 LiveCodeBench v5 (8/1/24-2/1/25) 上实现了 60.6% 的 Pass@1 准确率,比基本模型 (53%) 提高了 8%,并且只用 14B 参数实现了与 OpenAI 的 o3-mini 相似的性能。
本教程以 DeepCoder-14B-Preview 模型为演示案例,采用 bitsandbytes 提供的 8-bit 量化方法来优化显存占用。需要注意的是,这种量化方式可能会对模型的性能产生一定影响。算力资源采用 RTX4090 。
二、运行步骤
1. 启动容器后点击 API 地址即可进入 Web 界面
若显示「Bad Gateway」,这表示模型正在初始化,请等待约 1-2 分钟后刷新页面。

2. 功能演示

若显示「错误: HTTPConnectionPool(host=”localhost, port=8000): Max retries exceeded with url: /v1/completions」如下图,表示模型正在初始化,请等待约 1-2 分钟后刷新页面。

引用信息
感谢 GitHub 用户 SuperYang 对本教程的制作,本项目引用信息如下:
@misc{deepcoder2025,
title={DeepCoder: A Fully Open-Source 14B Coder at O3-mini Level},
author={Michael Luo, Sijun Tan, Roy Huang, Xiaoxiang Shi, Rachel Xin, Colin Cai, Ameen Patel, Alpay Ariyak, Qingyang Wu, Ce Zhang, Li Erran Li, Raluca Ada Popa, Ion Stoica},
howpublished={\url{https://pretty-radio-b75.notion.site/DeepCoder-A-Fully-Open-Source-14B-Coder-at-O3-mini-Level-1cf81902c14680b3bee5eb349a512a51}},
note={Notion Blog},
year={2025}
}
@misc{deepscaler2025,
title={DeepScaleR: Surpassing O1-Preview with a 1.5B Model by Scaling RL},
author={Michael Luo and Sijun Tan and Justin Wong and Xiaoxiang Shi and William Y. Tang and Manan Roongta and Colin Cai and Jeffrey Luo and Li Erran Li and Raluca Ada Popa and Ion Stoica},
year={2025},
howpublished={\url{https://pretty-radio-b75.notion.site/DeepScaleR-Surpassing-O1-Preview-with-a-1-5B-Model-by-Scaling-RL-19681902c1468005bed8ca303013a4e2}},
note={Notion Blog}
year={2025}
}
交流探讨
🖌️ 如果大家看到优质项目,欢迎后台留言推荐!另外,我们还建立了教程交流群,欢迎小伙伴们扫码备注【SD 教程】入群探讨各类技术问题、分享应用效果↓
