SweepAI 推出 1.5B 参数模型 SweepNext:下一代代码编辑引擎重磅发布
SweepAI 推出的 sweep-next-edit-1.5B 是一款参数量为15亿的代码补全模型,采用 Q8_0 量化格式的 GGUF 格式,专为“下一次代码编辑”预测优化。该模型可在本地笔记本电脑上运行,响应时间低于500毫秒(启用推测解码后),在多项“下一次编辑”任务基准测试中表现优于参数量超过其四倍的模型。 模型基于 Qwen2.5-Coder 架构训练,支持长达8192个token的上下文长度,适用于复杂代码场景。它通过分析当前文件上下文、最近的代码变更(diff)以及代码当前状态,精准预测开发者下一步可能的修改,实现智能代码补全。 使用方法:下载 run_model.py 脚本和模型文件,安装依赖库:uv pip install llama-cpp-python huggingface_hub,然后运行 python run_model.py 即可启动模型。 该模型提供完整示例代码,展示如何构造包含文件上下文、最近修改和当前代码状态的特定提示格式。开发者可将其集成至开发环境,提升编码效率。 项目配套有技术博客,详细说明模型架构、训练方法与性能表现,并提供 JetBrains 插件支持,方便在主流IDE中使用。模型开源,采用 Apache 2.0 许可证,允许自由使用与修改。
