分层推理模型:微型“大脑”如何颠覆大型语言模型的统治地位
6 天前
在AI模型不断追求参数规模与算力堆叠的今天,一个名为“分层推理模型”(Hierarchical Reasoning Model,简称HRM)的微型系统却以惊人表现打破了常规。它仅有2700万参数,训练数据量小到可在周末完成,训练仅需两小时GPU时间——这甚至比调试一块A100显卡还快。 然而,它的表现却令人震惊。在衡量AI通用智能水平的ARC-AGI测试中,HRM以40.3%的准确率大幅领先,远超Claude 3.7的21.2%和OpenAI o3-mini-high的34.5%。在极具挑战性的“Sudoku-Extreme”难题上,HRM成功解决55%的题目,而Claude和o3-mini均未能完成任何一题。面对复杂的30×30迷宫,HRM也以74.5%的准确率找到最优路径,其他模型则全部失败。 这一成果由其主要开发者关旺(Guan Wang)团队实现。HRM的突破不在于规模,而在于结构设计:它采用分层推理机制,能像人类一样“先思考策略,再执行步骤”,在复杂问题中做出更高效的决策。这种“小而精”的路径,让HRM在特定任务上甚至超越了参数量以千亿计的大型语言模型。 这不仅是技术上的反叛,更是一次范式挑战:AI的智能,未必来自规模,而可能源于更聪明的架构。当大模型仍在为“更大更强”而烧钱时,HRM用两小时训练就让它们“尴尬”了。
Related Links
Generative Al Community