『DeepSeek』下一代技术提前曝光,梁文锋署名论文获ACL2025最佳论文奖

梦晨 发自 凹非寺

量子位 | 公众号 QbitAI

在ACL 2025的颁奖典礼上,由 『DeepSeek』梁文锋作为通讯作者、与北京大学等联合发表的论文荣获最佳论文奖。

这次ACL 2025规模空前,总投稿量达到8360篇,相较于去年的4407篇几乎翻倍,竞争异常激烈 。

今日霍州(www.jrhz.info)©️

简单来说,他们提出的原生稀疏注意力(NSA)机制,通过算法与硬件的协同优化,直接把长文本处理速度提升了11倍。更厉害的是,性能不仅没降反而还超越了传统的全注意力模型。

一作 袁境阳在会上发表演讲,透露这项技术可以 把上下文长度扩展到1百万tokens,将被应用到下一个前沿模型中。

结合论文发表于『DeepSeek』-R1推出之后,实验设置中也提到使用了『DeepSeek』-R1的蒸馏数据来微调了新的模型。

大家纷纷猜测,这项技术将被用于下一代『DeepSeek』-V4以及『DeepSeek』-R2。

今日霍州(www.jrhz.info)©️

给注意力机制瘦身,速度狂飙11倍

长久以来,『大语言模型』处理长文本就像是戴着镣铐跳舞。传统的全注意力机制计算复杂度随序列长度呈平方级增长,处理64k长度的文本时,注意力计算竟然要占到总延迟的70-80%。

这篇论文的解决思路很巧妙:既然不是所有词之间的关系都同等重要,为什么不让模型学会”抓重点”呢?

NSA采用了一种动态分层的稀疏策略,通过三条并行的注意力分支协同工作:

  • 压缩注意力,负责捕捉粗粒度的全局信息模式,就像快速浏览全文抓住大意;

  • 选择性注意力,则专注于序列中最重要的词块,相当于精读关键段落;

  • 滑动注意力,负责获取局部的上下文信息,确保细节不丢失。

今日霍州(www.jrhz.info)©️

这种设计最精妙的地方在于,它不是简单地丢弃信息,而是通过精心设计的算法平衡了计算密度。

更重要的是,整个架构针对现代GPU硬件进行了深度优化,实现了端到端的原生可训练模式。

今日霍州(www.jrhz.info)©️

在实际测试中,处理64k长度序列时,NSA在解码、前向传播和反向传播的全生命周期中都展现出惊人的速度优势。

解码阶段速度提升11.6倍,前向传播提升9倍,反向传播也有6倍的加速,无论是模型推理还是训练,都能获得实实在在的效率提升。

今日霍州(www.jrhz.info)©️

不仅快还更准,长文本处理迎来新突破

速度快只是NSA的一面,更让人惊讶的是它在各项基准测试中的表现。

在通用基准测试中,采用NSA预训练的27B参数模型在9个评测指标中有7个超越了全注意力基线。特别是在推理相关的基准测试上,DROP提升了0.042,GSM8K提升了0.034,显示出稀疏注意力在强制模型聚焦关键信息方面的独特优势。

长文本处理能力的测试结果更是亮眼。在64k上下文的”大海捞针”测试中,NSA在所有位置都实现了完美的检索准确率。在LongBench基准测试上,NSA取得了0.469的平均分,不仅超越了全注意力基线(+0.032),更是大幅领先其他稀疏注意力方法。

今日霍州(www.jrhz.info)©️

特别值得一提的是,在需要复杂推理的多跳问答任务上,NSA相比全注意力分别提升了0.087(HPQ)和0.051(2Wiki);在代码理解任务(LCC)上提升了0.069;在段落检索任务(PassR-en)上提升了0.075。

今日霍州(www.jrhz.info)©️

研究团队还进行了一项有趣的实验:

他们用『DeepSeek』-R1的数学推理数据对模型进行微调,然后在美国数学邀请赛(AIME 24)上测试。

结果显示,NSA-R在8k上下文设置下的准确率达到0.121,而全注意力模型只有0.046;即使在16k上下文下,NSA-R仍然保持0.146的准确率,远超全注意力的0.092。

这些结果充分证明了NSA不是通过牺牲性能来换取速度,而是真正实现了效率和能力的双赢。

Three More Thing

这次总共评选出4篇最佳论文,另外三篇包括:

北大团队的《Language Models Resist Alignment: Evidence From Data Compression

研究了大型语言模型的“弹性”,指模型经过对齐训练(让模型符合人类价值观、减少有害输出)后,很容易因为后续的微调而变回预训练时的状态,就像弹簧被拉伸后会反弹一样。

这意味着现有的对齐方法可能只是表面上改变了模型,不够稳固。未来需要更有效的对齐技术,才能让模型真正稳定地符合人类需求,尤其是在开源模型中,要避免恶意微调轻易破坏安全机制。

斯坦福团队的《Fairness through Difference Awareness: Measuring Desired Group Discrimination in LLMs

研究了大模型“公平性” 上的一个新视角 “差异感知”。简单来说,就是模型应该在合适的场景下对不同群体做出区分,而不是一味地 一视同仁。

研究发现那些在传统公平性测试中表现好的模型,在 “差异感知” 上得分并不高;模型能力越强(比如 MMLU 分数越高),情境感知能力越好,但差异感知能力未必提升;现有的 “去偏见” 方法(比如提示模型 “保持无偏见”)反而会让模型更 无视差异,甚至把正确答案改错。

亥姆霍兹信息安全中心等团队的《A Theory of Response Sampling in LLMs: Part Deive and Part Preive》。

这篇论文指出大模型生成回答时的采样机制与人类决策类似,包含描述性成分(反映概念的统计常态)和规定性成分(隐含的概念理想状态)。

研究通过实验验证,无论是新创概念还是现有概念(涵盖 10 个领域的 500 个概念),LLMs 生成的样本都会偏离统计平均值,向其认为的 “理想值” 偏移,且这种现象在 15 种不同模型中均显著存在。案例研究显示,这种偏向可能导致医疗等领域的有偏决策,引发伦理问题。

『DeepSeek』论文地址:

https://arxiv.org/abs/2502.11089

参考链接:

特别声明:[『DeepSeek』下一代技术提前曝光,梁文锋署名论文获ACL2025最佳论文奖] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

『谢霆锋』高调公布喜讯,45岁人生新篇章,『王菲』及『娱乐圈』️纷纷侧目(『谢霆锋』高调公布喜讯)

说到孩子,『谢霆锋』的大儿子Lucas在2025年考入剑桥大学的消息,也让这位父亲赢得了不少口碑。这种从皮相到骨相的蜕变,不仅让『谢霆锋』成了『娱乐圈』️的一个传奇,也为我们所有人上了一课:真正的顶流,不是被包装出来的,而…

『谢霆锋』高调公布喜讯,45岁人生新篇章,『王菲』及『娱乐圈』️纷纷侧目(『谢霆锋』高调公布喜讯)

卢伟冰:“内存涨价”逼迫各品牌或涨价或降配,动摇终端机“性价比”根基

凤凰网科技讯 1月26日,小米集团合伙人、总裁,手机部总裁,小米品牌总经理卢伟冰发文预热全新定位产品:Turbo 5Max,新机将于1月29日19:00发布。 卢伟冰表示,2025年K系列全面升档,2000…

卢伟冰:“内存涨价”逼迫各品牌或涨价或降配,动摇终端机“性价比”根基

公募基金业绩“参照系”将全面升级

1月23日,中国证监会发布《公开募集证券投资基金业绩比较基准指引》。中国基金业协会同步发布《公开募集证券投资基金业绩比较基准操作细则》。据了解,新规明确了存量产品基准调整过渡期一年。新规重点从4个方面发力:一是精准画像,突出基准对产品的&a

公募基金业绩“参照系”将全面升级

夏日脱毛别冲动!脱毛膏新规落地,这个备案号一定要查(夏天脱毛的宣传广告)

从 2024 年开始,脱毛产品的市场监管迎来了重大变化,这一变化直接关系到你的护肤安全和钱包👛,花几分钟看完这篇内容,让你今夏脱毛不踩坑。此次脱毛产品的监管调整,本质上是行业的一次大洗牌,淘汰了不合规的劣质产品…

夏日脱毛别冲动!脱毛膏新规落地,这个备案号一定要查(夏天脱毛的宣传广告)

佟丽娅『陈思诚』合体庆生:离婚后“协作育儿”成『娱乐圈』️新范本

现场视频显示,佟丽娅蹲下身为朵朵整理衣领时,『陈思诚』已提前递上温水;当朵朵与小伙伴玩耍时,两人分别站在不同角度拍照,结束后还交流拍摄角度;甚至在切蛋糕环节,『陈思诚』主动接过佟丽娅手中的刀,笑着说“你负责美,我负责…

佟丽娅『陈思诚』合体庆生:离婚后“协作育儿”成『娱乐圈』️新范本