HyperAIHyperAI

Command Palette

Search for a command to run...

Console

推理时扩展 Inference-time Scaling

Date

10 个月前

推理时扩展 (Inference-time Scaling) 是一种通过增加推理阶段的计算资源来提升大型语言模型 (LLMs) 性能的方法。 OpenAI 的 o1 系列模型率先引入了推理时扩展 (inference-time scaling) 的概念,通过增加思维链 (Chain-of-Thought) 推理过程的长度,在数学、编程、科学推理等任务上取得了显著的性能提升。

推理时扩展旨在通过在推理过程中分配额外计算资源(如更多的计算步骤、更复杂的推理策略等)评估多种结果,选择最佳方案来提升模型性能。它突破了传统仅依靠增加训练资源提升模型能力的局限,让模型在面对复杂任务时,能策略性思考和系统解决问题。

Build AI with AI

From idea to launch — accelerate your AI development with free AI co-coding, out-of-the-box environment and best price of GPUs.

AI Co-coding
Ready-to-use GPUs
Best Pricing

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供