又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同

又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

27M小模型超越o3-mini-high和『DeepSeek』-R1!推理还不靠思维链。

开发者是那位拒绝了马斯克、还要挑战Transformer的00后清华校友,Sapient Intelligence的创始人王冠

这个27M小模型就是Sapient最新提出的开源可复现的分层推理模型Hierarchical Reasoning Model(下面简称HRM),模仿大脑的分层处理与多时间尺度运作机制,克服了标准Transfomer的计算局限。

2700万参数,就实现了对现有大模型的精准超车。

不用预训练补课,还不靠思维链打草稿,仅凭1000个训练样本,就把极端数独、30x30迷宫玩得明明白白。

甚至连衡量通用智能的ARC-AGI测试都能碾压一众参数规模更大、上下文更长的Claude 3.7等“大前辈”。

有网友感叹,这就像四两拨千斤AI版……

所以,HRM这个小模型是如何做到的?

核心是仿脑的双层循环模块设计

HRM之所以能有如此出色的表现,源于其五项核心技术的巧妙设计。

首先是分层循环模块与时间尺度分离

HRM受大脑皮层区域分层处理和时间分离机制启发,设计了两个相互配合的循环模块:一个高层模块负责慢节奏的抽象规划,一个低层模块处理快节奏的细节计算,不用明确监督中间过程,一次就能完成推理。

两者在不同时间尺度上协同工作。低阶模块在每个高阶周期内完成多次计算并达到临时稳定状态后,高阶模块才会更新决策,随后低阶模块重置并开启新一轮计算。

这种设计既保证了全局方向的正确性,又提升了局部执行的效率。

比如,在需要大量树搜索和回溯的Sudoku-Extreme Full任务上,增加Transformer的宽度不能提升性能,增加深度才是关键,而标准架构会出现性能饱和,无法从深度增加中获益。

HRM则克服了这一限制,能有效利用计算深度实现近乎完美的准确率。

其次是分层收敛机制

普通的循环神经网络常出现过早收敛的问题——计算几步就陷入稳定状态,后续再复杂的任务也无法推进。

而HRM中,低阶模块在每轮计算中会收敛到基于当前高阶状态的局部结果,但高阶模块更新后,会给低阶模块设定新的目标,使其进入新的收敛周期。

这就像完成项目时,先攻克一个子任务,再根据整体进度调整目标,确保持续推进不偷懒。

第三项是近似梯度技术

传统循环模型训练时,需要存储所有中间状态并反向追溯,类似复盘时要回看每一步操作,既耗内存又低效。

HRM则采用一步梯度近似,只需根据最终状态反推优化方向,如同根据考试结果直接定位薄弱知识点,内存需求恒定且计算高效,更符合生物大脑的学习规律。

第四是深度监督机制

它受大脑中神经振荡调节学习节奏的启发,引入了阶段性测试。

模型在学习过程中被分成多个阶段,每个阶段结束后立即评估并调整参数,且前后阶段的计算互不干扰。

这种方式能及时纠正偏差,就像学生每学一单元就测试巩固,比期末一次性考试的学习效果更扎实。

自适应计算时间让HRM能像人一样灵活分配思考时间

它通过类似评估收益的算法(Q学习),动态决定是否继续计算,在保证准确率的同时避免算力浪费,推理时还能通过增加计算资源进一步提升表现。

比如,简单任务如简单迷宫快速给出答案,复杂任务如高难度数独则延长计算时间。

这些技术的融合,让HRM在多项测试中表现不凡。

下图通过可视化中间步骤,验证了HRM的分层推理机制能够有效拆解复杂任务,通过渐进式计算逼近正确结果,而非依赖黑箱式的一次性输出。

在衡量AI通用推理能力的ARC-AGI挑战中,HRM仅用2700万参数和1000个训练样本,就达到40.3%的准确率,超过了参数规模更大的o3-mini-high(34.5%)和Claude 3.7 8K(21.2%)。

对于需要反复试错的9x9极端数独,现有思维链模型完全无法解决(准确率0%),即便是结构相似的Transformer模型,用同样数据训练也毫无头绪。而HRM几乎能全部做对。

在30x30复杂迷宫的最优路径寻找任务中,HRM表现稳定,而1.75亿参数的大型Transformer模型准确率不足20%。

虽然,HRM被指参数太小、训练范围有限,只针对特定领域表现好,无法泛化到领域外,并不通用。但有人认为小而精的模型或许在某些角度上更智能。

人工智能的飞跃在于创造性。

也有人认为HRM的前景更在于“仿脑”,通过精心设计的高低两个模块避免过早收敛,对过拟合具有极强的抵抗力

甚至有人相当乐观,认为这种新架构是神经网络一个巨大的进步。有可能是超越Transformer的时刻。

拒绝马斯克,挑战Transfomer

论文的第一作者王冠是一位00后,8岁开始学习编程,后保送至清华大学计算机系。

他是GitHub揽星5.1k开源项目OpenChat的独立开发者,独立完成了OpenChat全部版本的模型开发和训练框架搭建。

也正是因为OpenChat这个项目,他和马斯克产生了交集。

但他算得上是一个拒绝了马斯克的男人——此前,王冠多次拒绝了xAI等一线机构创始人的加入邀请。

原因是他认为自己要做的是颠覆Transfomer

2024年,王冠和联合创始人Austin创办了Sapient Intelligence,并成功融资数千万美元💵。致力于打造“真正具有复杂推理和规划能力的全新大模型架构”。

论文地址:https://arxiv.org/abs/2506.21734

代码地址:https://github.com/sapientinc/HRM

[1]https://x.com/casper_hansen_/status/1951656675250684163

[2]https://x.com/deedydas/status/1951677875004100814

[3]https://x.com/omarsar0/status/1951751651729060081

特别声明:[又是王冠:27M小模型超越o3-mini!拒绝马斯克的00后果然不同] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

蝶伊清影:男士造型的秘密武器(蝶伊清影造型干胶多少钱)

为什么越来越多男士选择蝶伊清影雪雅璐小瓶强力定型发胶?这款产品究竟有何独特之处?本文将为你全面解析其成分、功效、使用技巧以及市场地位,帮助你了解这一男士造型领域的创新之作。

蝶伊清影:男士造型的秘密武器(蝶伊清影造型干胶多少钱)

『林允』最新海边写真,好像一条刚上岸的美人鱼(『林允』海边泳装)

下面这套“在逃公主”的妆造也很美。 下面的造型去掉金色大耳饰,海草的头饰后,用了简单的碎钻发线装饰,耳环和项链也换成了一个系列。 如果你仔细看,这三套造型,『林允』用的都是同一个『妆容』,但配饰、发型和礼服一换,呈…

『林允』最新海边写真,好像一条刚上岸的美人鱼(『林允』海边泳装)

两次退圈都为同一位女人,58岁丁志诚的消失,是演艺圈的“悲哀”(退圈后还算不算『明星』️)

2002年,丁志诚正处于事业的巅峰期,然而他的婚姻却出现了问题,他与妻子小于离婚了,这无疑给他的生活带来了沉重的打击。他从小就为了姐姐而牺牲,成年后在事业和家庭之间奔波,最后为了照顾父母而选择退出演艺圈,丁…

两次退圈都为同一位女人,58岁丁志诚的消失,是演艺圈的“悲哀”(退圈后还算不算『明星』️)

『谢霆锋』重庆街头小馆吃面,临走打包!现场一特殊举动,被网友称赞(『谢霆锋』 重庆)

10月8日下午,就有网友在重庆的一家街头小馆偶遇了『谢霆锋』。吃面期间,不少粉丝也在店外偶遇他,还有一位白发老奶奶站在门口。这一细节被网友广泛赞扬,称他不仅有『明星』️的光环,更有生活中的温暖与礼貌。这份真诚和亲切,令…

『谢霆锋』重庆街头小馆吃面,临走打包!现场一特殊举动,被网友称赞(『谢霆锋』 重庆)

隐藏的收纳艺术:免打孔厨房调料置物架的妙用(隐藏收纳盒折纸)

免打孔厨房调料置物架为何成为现代家庭的厨房新宠?其独特的设计不仅能节省空间,还能让厨房井然有序。本文将深入剖析这种多功能壁挂式置物架的功能与优势,帮助您打造整洁美观的家庭厨房。

隐藏的收纳艺术:免打孔厨房调料置物架的妙用(隐藏收纳盒折纸)