Gemini 2.5 Flash-Lite 稳定版发布:更快、更经济的 AI 模型
今天,我们发布了 Gemini 2.5 Flash-Lite 的稳定版本,这是 Gemini 2.5 模型系列中最快且成本最低的模型。Gemini 2.5 Flash-Lite 的成本仅为每 100 万输入词元 0.10 美元,每 100 万输出词元 0.40 美元,旨在提供最佳的智能化性价比。这个模型在性能和成本之间取得了平衡,尤其适用于低延迟任务,如翻译和分类。此外,它支持高达 100 万个词元的上下文窗口,可控的推理预算以及与 Google 搜索、代码执行和 URL 上下文等原生工具的集成。 主要特征 最高速度:Gemini 2.5 Flash-Lite 在多种测试中表现出了比 2.0 Flash-Lite 和 2.0 Flash 更低的延迟。 高性价比:它是整个 Gemini 2.5 系列中成本最低的模型,大幅降低了处理大量请求的成本。音频输入的价格也从预览版降低了 40%。 智能而小巧:在多个基准测试中,包括编程、数学、科学推理和多模态理解,Gemini 2.5 Flash-Lite 表现出了比 2.0 Flash-Lite 更高的质量。 功能完备:它支持 100 万个词元的上下文窗口,可以控制推理预算,还支持与 Google 搜索、代码执行和 URL 上下文等原生工具的集成。 应用案例 自 Gemini 2.5 Flash-Lite 发布以来,已经有一些成功的应用案例: Satlyt:一家构建去中心化空间计算平台的公司。通过使用 Gemini 2.5 Flash-Lite,Satlyt 实现了 45% 的延迟减少,以及 30% 的功耗降低,这对于卫星数据的实时处理和通信解析至关重要。 HeyGen:使用 AI 创建视频内容的公司。HeyGen 借助 Gemini 2.5 Flash-Lite 自动化视频规划、分析和优化,并支持将视频翻译成超过 180 种语言,为用户提供全球化的个性化体验。 DocsHound:将产品演示转换成文档的工具。通过使用 Gemini 2.5 Flash-Lite 处理长视频并提取数千张截图,DocsHound 能够更快地生成全面的文档和训练数据。 Evertune:帮助品牌了解其在 AI 模型中的表征。Gemini 2.5 Flash-Lite 极大地加速了分析和报告生成的速度,使 Evertune 能够快速扫描和综合大量模型输出,为客户提供及时的动态洞察。 如何使用 用户可以通过在代码中指定“gemini-2.5-flash-lite”来开始使用这一模型。如果之前已经使用预览版本,可以直接切换到“gemini-2.5-flash-lite”,因为它们基于相同的底层模型。计划在 8 月 25 日移除预览版的别名。 未来展望 Google 计划继续扩展 Gemini 系列的功能,提供更多高性能的 AI 解决方案。Gemini 2.5 Flash-Lite 的发布标志着公司在 AI 技术领域的又一个重要里程碑。 业内人士评价 Gemini 2.5 Flash-Lite 的发布受到了业界的广泛好评。专家认为,它不仅提供了卓越的性能和成本效益,还在多个应用场景中展现出了巨大的潜力。例如,Satlyt 公司的技术总监表示,这款模型的低延迟和低功耗特性对其卫星计算平台的发展起到了关键作用。 公司背景 Google 是全球领先的科技公司,拥有强大的 AI 研发能力。Gemini 系列模型是 Google 在大语言模型领域的重要成果,旨在为企业提供强大、灵活且高效的 AI 解决方案。Gemini 2.5 Flash-Lite 的推出进一步巩固了 Google 在 AI 领域的领先地位。