HyperAIHyperAI

Command Palette

Search for a command to run...

2025年末的AI:智能跃迁与人类思考的交汇时刻

2025年末,AI领域迎来深刻反思。曾长期被部分研究者称为“概率鹦鹉”的大语言模型(LLM),其本质是否具备意义理解或生成意图,曾是激烈争议的焦点。然而,到2025年,几乎所有人都已不再坚持这一观点——这标志着LLM认知能力的接受度发生了根本性转变。 “思维链”(Chain of Thought, CoT)成为提升LLM输出质量的核心机制。其本质并非某种全新范式,而是模型在上下文信息基础上,通过内部状态的逐步演化进行“采样式搜索”:当与问题相关的概念被激活,模型能更精准地生成回应。更关键的是,当CoT与强化学习结合,模型学会在生成过程中不断调整自身状态,逐步逼近有效答案。这表明,LLM的推理能力正从“随机生成”向“有目标的演化”演进。 过去认为规模受限于上下文长度的观念已过时。得益于可验证奖励信号的强化学习,模型可在长周期任务中持续优化,例如代码性能调优。这为实现长期、稳定进步提供了可能。未来,RL在LLM中的深化应用,或将成为AI突破的下一个关键。 编程界对AI辅助的抵触已大幅降低。尽管LLM仍会出错,但其生成代码与提示的实用性已达到“投资回报可接受”的水平,促使更多开发者开始使用。当前生态中,有人将LLM视作协作伙伴(如通过Gemini、Claude等网页界面交互),也有人将其作为独立的编程代理。 与此同时,部分顶尖科学家正探索Transformer之外的路径,试图构建具有显式符号表示或世界模型的新架构。但作者认为,LLM本身已是一种可微分的、能逼近离散推理步骤的系统,即使不依赖根本性新范式,也完全可能通向通用人工智能(AGI)。AGI的实现路径或可多样并行。 关于CoT是否“根本性改变”LLM,作者明确反对。CoT仍是在原有“逐token预测”目标下生成的,其本质未变。只是通过结构化输出,使模型展现出更像“思考”的行为。 最后,ARC测试——曾被视为LLM无法逾越的障碍——如今已不再遥不可及。小型优化模型在ARC-AGI-1上表现良好,而超大模型结合CoT在ARC-AGI-2上取得惊人成果。这标志着ARC正从“反LLM”测试,转变为对LLM能力的验证。 未来二十年,AI最核心的挑战,仍是避免其发展带来的生存风险。

相关链接