Command Palette

Search for a command to run...

推理时扩展 Inference-time Scaling

日期

9 个月前

推理时扩展 (Inference-time Scaling) 是一种通过增加推理阶段的计算资源来提升大型语言模型 (LLMs) 性能的方法。 OpenAI 的 o1 系列模型率先引入了推理时扩展 (inference-time scaling) 的概念,通过增加思维链 (Chain-of-Thought) 推理过程的长度,在数学、编程、科学推理等任务上取得了显著的性能提升。

推理时扩展旨在通过在推理过程中分配额外计算资源(如更多的计算步骤、更复杂的推理策略等)评估多种结果,选择最佳方案来提升模型性能。它突破了传统仅依靠增加训练资源提升模型能力的局限,让模型在面对复杂任务时,能策略性思考和系统解决问题。

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供