『DeepSeek』新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

『DeepSeek』新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

梦晨 西风 发自 凹非寺

量子位 | 公众号 QbitAI

『DeepSeek』放大招!新模型专注数学定理证明,大幅刷新多项高难基准测试。

在普特南测试上,新模型『DeepSeek』-Prover-V2直接把记录刷新到 49道

目前的 第一名在657道题中只做出 10道

而未针对定理证明优化的 『DeepSeek』-R1只做出1道

让还没发布的R2更令人期待了。

除测评结果之外,论文中特别报告了 “通过强化学习发现新技能”现象。

正如R1带来了“啊哈时刻”,Prover-V2也有令人意想不到的能力。

具体来说,在普特南测试中,参数量较小的『DeepSeek』-Prover-V2-7B用非CoT生成模式成功解决了13个671B模型未能解决的问题。

团队仔细检查该模型的输出后发现,其推理方法存在一个独特模式:7B模型处理涉及有限基数的问题时,经常使用 Cardinal.toNat和 Cardinal.natCast_inj,而671B模型生成的输出中明显没有这些内容。

要注意,7B模型是在『DeepSeek』-Prover-V1.5-Base模型基础上,先使用671B模型在强化学习阶段收集的数据微调,再执行强化学习得来的。

也就是说,7B模型学会了671B模型没有学会的新技能。

那么,DeepSeeK-Prover-V2如何炼成的呢?与前代相比又有哪些改进?

形式化和非形式化数学证明统一模型

『DeepSeek』数学定理证明『DeepSeek』-Prover系列模型已推出3款:

  • 2024年3月的 『DeepSeek』-Prover(后简称为Prover-V1)

  • 2024年8月的 『DeepSeek』-Prover-V1.5(后简称为Prover-V1.5)

  • 2025年5月的 『DeepSeek』-Prover-V2(后简称为Prover-V2)

Prover-V1主要探索了 通过大规模合成数据集微调『DeepSeek』-Math-7B,来推进定理证明。

Prover-V1.5在此基础上增加了 证明助手反馈的强化学习(RLPAF)和 蒙特卡洛树搜索方法。

Prover-V2进一步提出 “子目标分解的强化学习”,并且基础模型从『DeepSeek』-Math-7B升级到『DeepSeek』-V3。

整合『DeepSeek』-V3的高上下文窗口和强大的自然语言推理能力,把形式化和非形式化数学证明统一到一个模型中。

Prover-V2还继承了Prover-V1.5提出的CoT和非CoT生成两种模式。

接下来,详细介绍Prover-V2的各主要环节。

通过递归证明搜索合成冷启动推理数据

利用『DeepSeek』-V3作为子目标分解和形式化的统一工具构建冷启动数据集,提示『DeepSeek』-V3将定理分解为高级证明草图,同时在Lean 4中将这些证明步骤形式化,从而产生一系列子目标。

使用一个较小的70亿参数模型来处理每个子目标的证明搜索,从而减轻相关的计算负担。一旦一个具有挑战性的问题的分解步骤得到解决,就将完整的逐步形式化证明与来自『DeepSeek』-V3的相应思维链进行配对,以创建冷启动推理数据。

使用合成冷启动数据进行子目标分解的强化学习

团队精心挑选了一组具有挑战性的问题,这些问题无法由70亿参数量的证明器模型以端到端的方式解决,但所有分解后的子目标都已成功解决。

通过组合所有子目标的证明,为原始问题构建了一个完整的形式化证明。

然后,将此证明附加到『DeepSeek』-V3的思维链中,该思维链概述了相应的引理分解,从而实现了非形式化推理与后续形式化的有机结合。

在合成冷启动数据上对证明器模型进行微调后进行强化学习阶段,进一步增强其将非正式推理与形式化证明构建相衔接的能力。遵循推理模型的标准训练目标,使用二元的正确或错误反馈作为奖励监督的主要形式。

具体训练细节

两阶段训练:

『DeepSeek』-Prover-V2分两阶段建立互补证明生成模式。

第一阶段用高效非思维链(non-CoT)模式,聚焦快速生成Lean证明代码,加快迭代和数据收集。

第二阶段基于第一阶段成果,采用高精度思维链(CoT)模式,阐述中间推理步骤,用冷启动思维链数据强化学习,提升复杂问题推理能力。

专家迭代:

其中非CoT模式训练遵循专家迭代范式,用最佳证明策略为难题生成证明尝试,经Lean验证,成功的纳入监督微调(SFT)数据集。与之前版本相比,训练问题分布有调整,引入了额外问题和子目标分解生成的问题。

监督微调:

对『DeepSeek』-V3-Base-671B做监督微调,训练语料库包含两个互补来源的数据:

一是通过专家迭代收集的非CoT数据,这些数据生成的Lean代码不包含中间推理步骤,主要用于强化模型在 Lean 定理证明生态系统中的形式验证技能。

二是冷启动CoT数据,这些数据将『DeepSeek』-V3的先进数学推理过程提炼为结构化的证明路径,明确地模拟了将数学直觉转化为形式证明结构的认知过程。

强化学习:

采用GRPO算法,与传统的PPO不同,GRPO无需单独的裁判模型,它通过为每个定理提示采样一组候选证明,并根据它们的相对奖励来优化策略。

训练过程中使用二元奖励机制,即生成的Lean证明若被验证正确则获得奖励1,否则为0。

为确保学习效果,精心挑选训练提示,仅包含那些有足够挑战性但又能被监督微调后的模型解决的问题。

蒸馏『DeepSeek』-Prover-V2 7B

将『DeepSeek』-Prover-V1.5-Base-7B上下文窗口扩展到32768个token,用『DeepSeek』-Prover-V2-671B数据微调,融入非CoT证明数据,以便利用小模型生成简洁的形式化输出,提供一种经济高效的证明选项。

此外,对『DeepSeek』-Prover-V2-7B执行与671B模型训练中相同的强化学习阶段,以进一步提升其性能。

由此得到的模型Prover-V2 671B在神经定理证明方面达到了最先进的性能,在miniF2F测试中的通过率达到 88.9%,并解决了普特南测试中的49道。Prover-V2为miniF2F数据集生成的证明可单独下载。

ProverBench:AIME和教科书问题的形式化

与Prover-V2一起推出ProverBench,这是一个包含325个问题的基准数据集。其中,有15个问题是从近期美国数学邀请赛(AIME 24和25)的数论与代数题目中形式化而来,提供了真实的高中竞赛水平挑战。其余310个问题则取自精心挑选的教科书示例和教学教程,构成了一套多样化且基于教学需求的形式化数学问题集合。该基准旨在能够对高中竞赛问题和本科阶段数学问题进行更全面的评估。

『DeepSeek』-Prover-V2系列在三个数据集上评测的最后总成绩如下:

『DeepSeek』全『明星』️阵容

Prover-V2的作者共18人,共同一作 Z.Z. Ren, 邵智宏、辛华剑都是参与过V3、R1以及Prover系列前作的主力成员。

作者名单中出现了几位未参与前两代版本(Prover-V1、Prover-V1.5)的研究者。

比如Shirong Ma,清华本硕。公开资料显示,他于去年毕业后即加入『DeepSeek』,现为『DeepSeek』研究员,此前参与了从『DeepSeek』 LLM v1到R1以及『DeepSeek』-Coder等工作。

还有Zhe Fu、Yuxuan Liu

虽然他们都没出现在Prover-V1、Prover-V1.5的作者名单中,但均为『DeepSeek』资深成员。

在Prover-V1/V1.5同一期发布的《Fire-Flyer AI-HPC》研究中可见其署名。

该研究提出的Fire-Flyer AI-HPC架构,通过软硬件协同设计降低训练成本,解决传统超算架构在AI训练需求上的不足。

不过这次Prover-V2的论文中并未提及在训练或推理基础设施具体有哪些优化策略。

最后还有一位新面孔 Hongxuan Tang,暂未了解到具体信息。

Prover-V2发布后迅速引发社区关注,GitHub仓库12小时内即获得350+星标。

在X(原Twitter)、抱抱脸等平台,网友们展开热烈讨论。

Prover-V2核心贡献者邵智宏在个人账号主动推介研究成果。

X『工程师』@kache特别赞赏道:

感谢你们对开放科学研究的奉献。

普林斯顿大学助理教授Chi Jin表示:

恭喜这项惊人的工作!在miniF2F上攻克最后10%-20%的问题标志着能力上的重大飞跃。当前形式化数学领域的竞争态势堪称激烈,难以置信Kimina仅保持了两周SOTA就被『DeepSeek』超越。

就连Kimina-Prover核心贡献者@Marco Dos Santos都来送上了祝贺:

祝贺『DeepSeek』 AI团队将miniF2F任务的SOTA提升到了89%!

很高兴看到长思维链方法正在被其他团队独立探索且呈现出一些有趣的差异。形式数学如今比以往任何时候都更受欢迎!

另外,网友们最关注的问题仍然是:R2什么时候发布啊~

论文:

https://github.com/deepseek-ai/『DeepSeek』-Prover-V2/blob/main/『DeepSeek』_Prover_V2.pdf

模型:

https://huggingface.co/deepseek-ai/『DeepSeek』-Prover-V2-671B

『DeepSeek』-Prover

https://arxiv.org/abs/2405.14333

『DeepSeek』-Prover-V1.5

https://arxiv.org/abs/2408.08152

参考链接:

[1]https://trishullab.github.io/PutnamBench/leaderboard.html

特别声明:[『DeepSeek』新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能] 该文观点仅代表作者本人,今日霍州系信息发布平台,霍州网仅提供信息存储空间服务。

猜你喜欢

博朗、未野、松下往复式剃须刀🪒好用吗?值得买吗?真人测评解析!(博朗 hygiene)

我分别用三款剃须刀🪒刮剃刷子,剃完发现未野处理过的刷毛横截面格外平整光滑,没有拉丝和毛躁感。原来,它是不锈钢的德国刀头,其他品牌还在宣传三刀头时,未野已经是五刀头配四段式蜂巢无刷金属电机了,它的切剃频次每分钟…

博朗、未野、松下往复式剃须刀🪒好用吗?值得买吗?真人测评解析!(博朗 hygiene)

捷豹路虎受网络攻击停产 员工休假 生产中断或持续至11月(捷豹路虎topix登录)

英国车企捷豹路虎遭受严重网络攻击后,其工厂生产预计最早于9月24日恢复。然而,行业内消息人士警告⚠️称,此次中断可能将持续到11月。作为英国最大的汽车制造商,捷豹路虎每天预期生产超过1000辆汽车

捷豹路虎受网络攻击停产 员工休假 生产中断或持续至11月(捷豹路虎topix登录)

仙女下凡!梁田羽毛裙闪耀全场,生图美到犯规!(仙女下凡是谁)

梁田姐姐这次穿上白色羽毛裙,真的就像仙女一样,闪闪发光,美得让人说不出话来!梁田姐姐拿着小熊公仔的样子,又温柔又可爱,就像从森林里走出来的精灵,又仙又甜。梁田姐姐真的像是带着仙气来到我们身边,每一张照片都让…

仙女下凡!梁田羽毛裙闪耀全场,生图美到犯规!(仙女下凡是谁)

接近开关e2e(接近开关E2E-X4B18)

在工业自动化和电子设备领域,接近开关是一种常见的传感器,用于检测物体的存在或距离,而无需物理接触。本文将系统地介绍的基本原理、类型、应用以及选型注意事项,以帮助读者更好地理解这一技术。检测距离应根据实际应…

接近开关e2e(接近开关E2E-X4B18)

吴谨言提早进组学艺,你也能!揭秘成功背后的努力与准备(吴谨言出现的)

吴谨言现在也想明白了,表演其实是做减法的过程,“把那些你觉得多余的东西拿掉,不要刻意去演,也不要刻意去找所谓的技巧或者是方法,当你足够相信对手和相信自己的时候,你的反馈就会是最真实的”。 虽然易钟玉这个角色…

吴谨言提早进组学艺,你也能!揭秘成功背后的努力与准备(吴谨言出现的)