开云体育

DeepSeek新数学模型开云APP下载刷爆记录!7B小模型自主发现671B不会的新技能

2025-05-06
浏览次数:
返回列表

  开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!

DeepSeek新数学模型开云APP下载刷爆记录!7B小模型自主发现671B模型不会的新技能

  DeepSeek放大招!新模型专注数学定理证明,大幅刷新多项高难基准测试。

  在普特南测试上,新模型DeepSeek-Prover-V2直接把记录刷新到49道。

  目前的第一名在657道题中只做出10道题,为Kimi与合作成果Kimina-Prover。

  具体来说,在普特南测试中,参数量较小的DeepSeek-Prover-V2-7B用非CoT生成模式成功解决了13个671B模型未能解决的问题。

  团队仔细检查该模型的输出后发现,其推理方法存在一个独特模式:7B模型处理涉及有限基数的问题时,经常使用Cardinal.toNat和Cardinal.natCast_inj,而671B模型生成的输出中明显没有这些内容。

  要注意,7B模型是在DeepSeek-Prover-V1.5-Base模型基础上,先使用671B模型在强化学习阶段收集的数据微调,再执行强化学习得来的。

  那么,DeepSeeK-Prover-V2如何炼成的呢?与前代相比又有哪些改进?

  Prover-V1主要探索了通过大规模合成数据集微调DeepSeek-Math-7B,来推进定理证明。

  Prover-V1.5在此基础上增加了证明助手反馈的强化学习(RLPAF)和蒙特卡洛树搜索方法。

  整合DeepSeek-V3的高上下文窗口和强大的自然语言推理能力,把形式化和非形式化数学证明统一到一个模型中。

  利用DeepSeek-V3作为子目标分解和形式化的统一工具构建冷启动数据集,提示DeepSeek-V3将定理分解为高级证明草图,同时在Lean 4中将这些证明步骤形式化,从而产生一系列子目标。

  使用一个较小的70亿参数模型来处理每个子目标的证明搜索,从而减轻相关的计算负担。一旦一个具有挑战性的问题的分解步骤得到解决,就将完整的逐步形式化证明与来自DeepSeek-V3的相应思维链进行配对,以创建冷启动推理数据。

  团队精心挑选了一组具有挑战性的问题,这些问题无法由70亿参数量的证明器模型以端到端的方式解决,但所有分解后的子目标都已成功解决。

  然后,将此证明附加到DeepSeek-V3的思维链中,该思维链概述了相应的引理分解,从而实现了非形式化推理与后续形式化的有机结合。

  在合成冷启动数据上对证明器模型进行微调后进行强化学习阶段,进一步增强其将非正式推理与形式化证明构建相衔接的能力。遵循推理模型的标准训练目标,使用二元的正确或错误反馈作为奖励监督的主要形式。

  第一阶段用高效非思维链(non-CoT)模式,聚焦快速生成Lean证明代码,加快迭代和数据收集。

  第二阶段基于第一阶段成果,采用高精度思维链(CoT)模式,阐述中间推理步骤,用冷启动思维链数据强化学习,提升复杂问题推理能力。

  其中非CoT模式训练遵循专家迭代范式,用最佳证明策略为难题生成证明尝试,经Lean验证,成功的纳入监督微调(SFT)数据集。与之前版本相比,训练问题分布有调整,引入了额外问题和子目标分解生成的问题。

  对DeepSeek-V3-Base-671B做监督微调,训练语料库包含两个互补来源的数据:

  一是通过专家迭代收集的非CoT数据,这些数据生成的Lean代码不包含中间推理步骤,主要用于强化模型在 Lean 定理证明生态系统中的形式验证技能。

  二是冷启动CoT数据,这些数据将DeepSeek-V3的先进数学推理过程提炼为结构化的证明路径,明确地模拟了将数学直觉转化为形式证明结构的认知过程。

  采用GRPO算法,与传统的PPO不同,GRPO无需单独的裁判模型,它通过为每个定理提示采样一组候选证明,并根据它们的相对奖励来优化策略。

  训练过程中使用二元奖励机制,即生成的Lean证明若被验证正确则获得奖励1,否则为0。

  为确保学习效果,精心挑选训练提示,仅包含那些有足够挑战性但又能被监督微调后的模型解决的问题。

  此外,对DeepSeek-Prover-V2-7B执行与671B模型训练中相同的强化学习阶段,以进一步提升其性能。

  由此得到的模型Prover-V2 671B在神经定理证明方面达到了最先进的性能,在miniF2F测试中的通过率达到 88.9%,并解决了普特南测试中的49道。Prover-V2为miniF2F数据集生成的证明可单独下载。

  与Prover-V2一起推出ProverBench,这是一个包含325个问题的基准数据集。其中,有15个问题是从近期美国数学邀请赛(AIME 24和25)的数论与代数题目中形式化而来,提供了真实的高中竞赛水平挑战。其余310个问题则取自精心挑选的教科书示例和教学教程,构成了一套多样化且基于教学需求的形式化数学问题集合。该基准旨在能够对高中竞赛问题和本科阶段数学问题进行更全面的评估。

  DeepSeek-Prover-V2系列在三个数据集上评测的最后总成绩如下:

  Prover-V2的作者共18人,共同一作Z.Z. Ren, 邵智宏、辛华剑都是参与过V3、R1以及Prover系列前作的主力成员。

  作者名单中出现了几位未参与前两代版本(Prover-V1、Prover-V1.5)的研究者。

  该研究提出的Fire-Flyer AI-HPC架构,通过软硬件协同设计降低训练成本,解决传统超算架构在AI训练需求上的不足。

  不过这次Prover-V2的论文中并未提及在训练或推理基础设施具体有哪些优化策略。

  Prover-V2发布后迅速引发社区关注,GitHub仓库12小时内即获得350+星标。

  恭喜这项惊人的工作!在miniF2F上攻克最后10%-20%的问题标志着能力上的重大飞跃。当前形式化数学领域的竞争态势堪称激烈,难以置信Kimina仅保持了两周SOTA就被DeepSeek超越。

  很高兴看到长思维链方法正在被其他团队独立探索且呈现出一些有趣的差异。形式数学如今比以往任何时候都更受欢迎!

  原标题:《DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。

搜索