GLM-4.7-Flash:Zai-ORG 推出高效轻量级大模型,性能再创新高
GLM-4.7-Flash 是一款 300 亿参数的 MoE(混合专家)模型,具备 30B 主干 + 3B 激活专家的架构,是目前 30B 级别中性能最强的模型之一,特别适合对推理效率与模型能力有平衡需求的轻量化部署场景。 在多项基准测试中表现优异,显著领先于同类模型。例如在 AIME 任务中得分 91.7,超过 Qwen3-30B-A3B-Thinking-2507 和 GPT-OSS-20B;在 GPQA 上达 75.2,远超其他对比模型;LCB v6 任务中得分 64.0,SWE-bench Verified 达 59.2,τ²-Bench 达 79.5,展现出强大的推理与编程能力。 该模型支持本地部署,兼容 vLLM 和 SGLang 推理框架。
