首页 最新 热门 推荐

  • 首页
  • 最新
  • 热门
  • 推荐

【DeepSeek论文精读】6. DeepSeek R1:通过强化学习激发大语言模型的推理能力

  • 25-02-16 05:00
  • 4283
  • 8177
blog.csdn.net

欢迎关注[【AIGC论文精读】](https://blog.csdn.net/youcans/category_12321605.html)原创作品
【DeepSeek论文精读】1. 从 DeepSeek LLM 到 DeepSeek R1
【DeepSeek论文精读】2. DeepSeek LLM:以长期主义扩展开源语言模型
【DeepSeek论文精读】3. DeepSeekMoE:迈向混合专家语言模型的终极专业化
【DeepSeek论文精读】4. DeepSeek-V2:强大、经济且高效的混合专家语言模型
【DeepSeek论文精读】5. DeepSeek-V3 技术报告
【DeepSeek论文精读】6. DeepSeek R1:通过强化学习激发大语言模型的推理能力

【DeepSeek论文精读】6. DeepSeek R1:通过强化学习激发大语言模型的推理能力

    • 0. 论文简介与摘要
      • 0.1 论文简介
      • 0.2 摘要
      • 0.3 主要贡献
      • 0.4 DeepSeek-R1 的训练流程
    • 1. 引言
      • 1.1 贡献
      • 1.2 评估结果总结
    • 2. 方法
      • 2.1 概述
      • 2.2 DeepSeek-R1-Zero:基础模型上的强化学习
        • 2.2.1 强化学习算法
        • 2.2.2 奖励模型
        • 2.2.3 训练模板
        • 2.2.4 DeepSeek-R1-Zero 的性能、自我进化过程与顿悟时刻
      • 2.3 DeepSeek-R1:结合冷启动的强化学习
        • 2.3.1 冷启动
        • 2.3.2 面向推理的强化学习
        • 2.3.3 拒绝采样与监督微调
        • 2.3.4 面向所有场景的强化学习
      • 2.4 蒸馏:赋能小型模型推理能力
    • 3. 试验
      • 3.1 DeepSeek-R1 的评估结果
      • 3.2 蒸馏模型 的评估结果
    • 4. 讨论
      • 4.1 蒸馏与强化学习的对比
      • 4.2 不成功的尝试
    • 5. 结论、局限性与未来工作


0. 论文简介与摘要

0.1 论文简介

  • 论文标题:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
  • 发布时间:2025 年 1 月 [2501.12948]
  • 论文地址:https://arxiv.org/pdf/2501.12948v1
  • Github 地址:https://github.com/deepseek-ai/DeepSeek-R1
  • Huggingface 地址:https://huggingface.co/deepseek-ai/DeepSeek-R1
  • 主要贡献:
    • 基于 DeepSeek-V3-Base,通过强化学习(RL)提升推理能力,而不使用任何SFT数据。
    • 引入冷启动数据和多阶段训练流程,优化模型的可读性和性能。

在这里插入图片描述


0.2 摘要

本文介绍了我们的 第一代推理模型 DeepSeek-R1-Zero 和 DeepSeek-R1。论文展示了一种前沿的开源推理模型,以及使用大规模强化学习技术训练此类模型的详细方法。
DeepSeek-R1-Zero 是通过大规模强化学习(RL)训练的模型,没有经过监督微调(SFT)作为初步步骤,展示了显著的推理能力。通过强化学习,DeepSeek-R1-Zero自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混用问题。
为了解决这些问题并进一步提升推理性能,我们推出了 DeepSeek-R1,该模型在强化学习之前融入了多阶段训练和冷启动数据。DeepSeek-R1 在推理任务上的表现与 OpenAI-o1-1217 相当。
为了支持研究社区,我们开源了 DeepSeek-R1-Zero、DeepSeek-R1 以及从 6个从 DeepSeek-R1
蒸馏出的稠密模型(1.5B、7B、8B、14B、32B、70B),这些模型基于 Qwen 和 Llama 构建。

在这里插入图片描述


0.3 主要贡献

  1. DeepSeek-R1-Zero 的构建过程展示了如何通过纯强化学习激励大型语言模型自我进化,从而提升推理能力。尽管它面临可读性和语言混合等挑战,但其在多个推理任务上的表现证明了RL在提升模型推理能力方面的巨大潜力。DeepSeek-R1-Zero 的成功为未来的研究提供了新的方向,尤其是在无需监督数据的情况下,如何通过RL进一步优化模型的推理能力。

  2. DeepSeek-R1 通过引入冷启动数据和多阶段训练管道,显著提升了模型的推理能力和可读性。它在多个推理任务上的表现与 OpenAI 的 o1-1217 相当,甚至在某些任务上超越了它。通过蒸馏技术,DeepSeek-R1 的推理能力还被成功迁移到更小的模型上,展示了其在推理任务中的强大潜力。DeepSeek-R1 的成功为未来的研究提供了新的方向,尤其是在如何通过冷启动和多阶段训练进一步提升模型性能方面。

  3. 通过蒸馏技术,作者成功地将 DeepSeek-R1 的强大推理能力迁移到了多个小型密集模型上。蒸馏后的模型在多个基准测试中表现优异,展示了知识迁移的有效性。蒸馏技术不仅降低了计算成本,还为在资源受限环境中部署高性能推理模型提供了新的可能性。


0.4 DeepSeek-R1 的训练流程

DeepSeek-R1 采用四阶段流程进行训练:

  • 冷启动(阶段 1):从预训练模型 DeepSeek-V3-Base 开始,模型在从 DeepSeek-R1-Zero 收集的少量结果数据集上进行监督微调。这些结果经过验证,质量高且可读性强。这个数据集包含数千个样本,规模相对较小。在这个小规模高质量数据集上进行监督微调,有助于 DeepSeek-R1 缓解初始模型中存在的可读性问题。
  • 推理强化学习(阶段 2):这个阶段应用与前一个模型相同的大规模强化学习方法,以提升模型的推理能力。具体来说,在编程、数学、科学和逻辑推理等任务中,这些任务有明确的解决方案,可为强化学习过程定义奖励规则。
  • 拒绝采样和监督微调(阶段 3):在这个阶段,使用阶段 2 的模型检查点生成大量样本。通过拒绝采样,只保留正确且可读的样本。此外,使用生成式奖励模型 DeepSeek-V3 来决定保留哪些样本。这个阶段还包含了部分 DeepSeek-V3 的训练数据。然后,模型在这个数据集上进行监督微调。这个数据集不仅包含推理相关的问题,还提升了模型在更多领域的能力。
  • 多样化强化学习阶段(阶段 4):这是最后一个阶段,包含多样化的任务。对于像数学这样适用的任务,使用基于规则的奖励。对于其他任务,由大语言模型提供反馈,使模型符合人类偏好。
    此外,利用阶段 3 构建的数据集对各种较小的开源模型进行了蒸馏,提供了具有高推理能力的较小规模替代模型。

1. 引言

近年来,大型语言模型(LLMs)正经历着快速的迭代和演变(Anthropic,2024;Google,2024;OpenAI,2024a),逐渐缩小与通用人工智能(AGI)之间的差距。

最近,后训练(post-training)作为完整训练流程的重要组成部分,已经被提出并取得了显著进展。研究表明,后训练可以提升推理任务的准确性,符合社会价值观,并适应用户偏好,同时相比于预训练,所需的计算资源相对较少。在推理能力方面,OpenAI 的 o1(OpenAI,2024b)系列模型率先通过增加推理过程中的 Chain-of-Thought 过程的长度,实现了推理时扩展。这种方法在数学、编程和科学推理等多个推理任务上取得了显著的改进。然而,如何有效地进行测试时扩展仍然是研究界的一个未解问题。先前的几项研究探讨了多种方法,包括基于过程的奖励模型(Lightman 等,2023;Uesato 等,2022;Wang 等,2023)、强化学习(Kumar 等,2024)以及搜索算法,如蒙特卡洛树搜索和束搜索(Feng 等,2024;Trinh 等,2024;Xin 等,2024)。然而,这些方法都未能在推理表现上达到与 OpenAI o1 系列模型相当的水平。

在本文中,我们迈出了提升语言模型推理能力的第一步,采用纯强化学习(RL)进行探索。我们的目标是探索在没有任何监督数据的情况下,大型语言模型如何通过纯粹的强化学习过程自我演化并发展推理能力。具体来说,我们使用 DeepSeek-V3-Base 作为基础模型,并采用 GRPO(Shao 等,2024)作为 RL 框架,以提升模型在推理方面的表现。

在训练过程中,DeepSeek-R1-Zero 自然展现了许多强大且有趣的推理行为。经过数千步的强化学习训练,DeepSeek-R1-Zero 在推理基准测试中表现出了超凡的性能。例如,在 AIME 2024 上,pass@1 的得分从 15.6% 提升至 71.0%,并且通过多数投票,得分进一步提高到 86.7%,与 OpenAI-o1-0912 的表现相匹配。

然而,DeepSeek-R1-Zero 遇到了一些挑战,例如可读性差和语言混合。为了应对这些问题并进一步提升推理性能,我们推出了 DeepSeek-R1,该模型结合了少量冷启动数据和多阶段训练流程。具体来说,我们首先收集了数千条冷启动数据,以微调 DeepSeek-V3-Base 模型。随后,我们像 DeepSeek-R1-Zero 一样进行面向推理的强化学习。接近强化学习过程收敛时,我们通过对 RL 检查点进行拒绝采样,结合来自 DeepSeek-V3 的监督数据(涵盖写作、事实问答和自我认知等领域),生成新的 SFT 数据,并重新训练 DeepSeek-V3-Base 模型。经过新的数据微调后,检查点将进行额外的强化学习过程,考虑到所有场景中的提示。经过这些步骤后,我们得到了一个称为 DeepSeek-R1 的检查点,其推理性能与 OpenAI-o1-1217 相当。

我们进一步探索了从 DeepSeek-R1 蒸馏到更小的稠密模型。以 Qwen2.5-32B(Qwen,2024b)为基础模型,从 DeepSeek-R1 直接蒸馏的结果优于对其应用强化学习的结果。这表明,较大基础模型发现的推理模式对于提升推理能力至关重要。我们开源了蒸馏后的 Qwen 和 Llama(Dubey 等,2024)系列。值得注意的是,我们的 14B 蒸馏模型在推理基准测试中大幅超越了最先进的开源模型 QwQ-32B-Preview(Qwen,2024a),而蒸馏后的 32B 和 70B 模型在稠密模型中创下了推理基准的新纪录。


1.1 贡献

1. 后训练:基于基础模型的大规模强化学习

  • 我们直接将强化学习(RL)应用于基础模型,而不依赖于监督微调(SFT)作为初步步骤。这种方法使模型能够探索链式推理(CoT)来解决复杂问题,从而发展出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展现了自我验证、反思和生成长链式推理等能力,为研究社区带来了重大突破。值得注意的是,这是首个通过纯强化学习验证大语言模型(LLMs)推理能力可以被激励的开放研究,无需依赖 SFT。这一突破为未来该领域的进展铺平了道路。
  • 我们介绍了开发 DeepSeek-R1 的流程。该流程包含两个强化学习阶段,旨在发现改进的推理模式并与人类偏好对齐,同时包含两个监督微调阶段,作为模型推理和非推理能力的种子。我们相信这一流程将通过创造更好的模型,推动行业发展。

2. 蒸馏:更小的模型也能强大

  • 我们证明了较大模型的推理模式可以被蒸馏到更小的模型中,从而在推理性能上超越了通过强化学习发现的较小模型的推理模式。开源的 DeepSeek-R1 及其 API 将为研究社区未来蒸馏出更好的小型模型提供帮助。
  • 使用 DeepSeek-R1 生成的推理数据,我们对多个在研究社区广泛使用的稠密模型进行了微调。评估结果表明,蒸馏后的更小稠密模型在基准测试中表现异常出色。DeepSeek-R1-Distill-Qwen-7B 在 AIME 2024 上得分 55.5%,超越了 QwQ-32B-Preview。此外,DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 上得分 72.6%,在 MATH-500 上得分 94.3%,在 LiveCodeBench 上得分 57.2%。这些结果大大超越了之前的开源模型,并与 o1-mini 的表现相当。我们将基于 Qwen2.5 和 Llama3 系列的 1.5B、7B、8B、14B、32B 和 70B 蒸馏模型检查点开源给社区。

1.2 评估结果总结

  1. 推理任务
    (1) DeepSeek-R1 在 AIME 2024 上达到了 79.8% 的 Pass@1,略微超越了 OpenAI-o1-1217。在 MATH-500 上,它取得了 97.3% 的优异成绩,与 OpenAI-o1-1217 相当,并显著超越了其他模型。
    (2) 在与编程相关的任务中,DeepSeek-R1 在代码竞赛任务中表现出专家水平,Codeforces 上的 Elo 等级为 2,029,超越了 96.3% 的人类参赛者。在与工程相关的任务中,DeepSeek-R1 的表现稍好于 DeepSeek-V3,这对开发人员在现实任务中具有一定帮助。

  2. 知识:
    在 MMLU、MMLU-Pro 和 GPQA Diamond 等基准测试中,DeepSeek-R1 取得了杰出的成绩,显著超越了 DeepSeek-V3,分别在 MMLU 上得分 90.8%,MMLU-Pro 上得分 84.0%,GPQA Diamond 上得分 71.5%。虽然在这些基准测试中的表现略低于 OpenAI-o1-1217,DeepSeek-R1 依然超越了其他闭源模型,展示了其在教育任务中的竞争优势。在事实性基准测试 SimpleQA 上,DeepSeek-R1 超越了 DeepSeek-V3,证明了其处理基于事实查询的能力。在这一基准测试中,OpenAI-o1 也超越了 4o,呈现出相似的趋势。

  3. 其它:
    DeepSeek-R1 在广泛的任务中也表现出色,包括创意写作、一般问答、编辑、摘要等。它在 AlpacaEval 2.0 上取得了令人印象深刻的长度控制胜率 87.6%,在 ArenaHard 上的胜率为 92.3%,展示了其强大的智能处理非考试导向查询的能力。此外,DeepSeek-R1 在需要长上下文理解的任务上表现突出,显著超越了 DeepSeek-V3 在长上下文基准测试中的表现。


2. 方法

2.1 概述

先前的研究在很大程度上依赖大量的监督数据来提高模型性能。在本研究中,我们展示了推理能力可以通过大规模强化学习(RL)显著提升,即使不使用监督微调(SFT)作为冷启动。此外,性能还可以通过加入少量冷启动数据进一步增强。
在接下来的章节中,我们将介绍:
(1)DeepSeek-R1-Zero,它直接将强化学习应用于基础模型,无需任何 SFT 数据;
(2)DeepSeek-R1,它从经过数千条长链式推理(CoT)示例微调的检查点开始应用强化学习;
(3)从 DeepSeek-R1 蒸馏推理能力到小型稠密模型。


2.2 DeepSeek-R1-Zero:基础模型上的强化学习

强化学习在推理任务中已展现出显著的效果,正如我们之前的研究所证明的那样(Shao 等,2024;Wang 等,2023)。然而,这些研究都在很大程度上依赖监督数据,而这些数据的收集过程非常耗时。在本节中,我们探讨了在没有任何监督数据的情况下,LLMs 如何通过纯强化学习过程自我演化并发展推理能力。我们首先简要概述了我们的 RL 算法,然后呈现一些令人兴奋的结果,希望能为社区提供有价值的见解。


2.2.1 强化学习算法

组内相对策略优化(Group Relative Policy Optimization)

为了节省强化学习的训练成本,我们采用了 Group Relative Policy Optimization (GRPO)(Shao 等,2024),它不依赖于通常与策略模型大小相同的评价模型,而是通过从组得分中估计基线。具体而言,对于每个问题 ,GRPO 从旧的策略 中采样一组输出 { 1, 2, ···, },然后通过最大化以下目标来优化策略模型:

在这里插入图片描述
其中,? 和 ? 是超参数, A i A_i Ai​ 是优势,使用一组与每组内的产出相对应的奖励 { r 1 , r 2 , ⋅ ⋅ ⋅ , r G } \{ r_1, r_2, ···, r_G \} {r1​,r2​,⋅⋅⋅,rG​} 计算得到:

在这里插入图片描述


2.2.2 奖励模型

奖励是训练信号的来源,决定了强化学习(RL)的优化方向。
为了训练 DeepSeek-R1-Zero,我们采用了一种基于规则的奖励系统,主要由两种类型的奖励组成:

  • 准确度奖励(Accuracy rewards):准确度奖励模型用于评估响应是否正确。例如,在具有确定性结果的数学问题中,要求模型以指定的格式(例如,在框中)提供最终答案,从而可以通过规则进行可靠的正确性验证。同样,对于 LeetCode 问题,可以使用编译器基于预定义的测试用例生成反馈。
  • 格式奖励(Format rewards):除了准确度奖励模型外,我们还使用了格式奖励模型,强制模型将其思维过程放置在 和 标签之间。

我们在开发 DeepSeek-R1-Zero 时没有应用基于结果或过程的神经奖励模型,因为我们发现,在大规模强化学习过程中,神经奖励模型可能会遭遇奖励操控问题,并且重新训练奖励模型需要额外的训练资源,这会使整个训练流程变得更加复杂。


2.2.3 训练模板

为了训练 DeepSeek-R1-Zero,我们首先设计了一个简单的模板,指导基础模型遵循我们指定的指令。
如表 1 所示,该模板要求 DeepSeek-R1-Zero 首先生成推理过程,然后给出最终答案。


表1:用户(User)和助手(Assistant)之间的对话。

用户提出了一个问题,助手解决了这个问题。
助手首先在脑海中思考推理过程,然后向用户提供答案。推理过程和答案分别包含在标签 和 中,即 reasoning process here , answer here 。
User: prompt.
Assistant:


我们有意将约束限制在这种结构格式上,避免任何内容特定的偏见,例如强制要求反思性推理或推广特定的解题策略——以确保我们能够准确观察模型在强化学习过程中的自然进展。


2.2.4 DeepSeek-R1-Zero 的性能、自我进化过程与顿悟时刻

DeepSeek-R1-Zero 的性能

图 2 展示了 DeepSeek-R1-Zero 在 AIME 2024 基准测试中的性能轨迹,贯穿整个强化学习训练过程。如图所示,随着强化学习训练的推进,DeepSeek-R1-Zero 的性能稳定且持续地提升。值得注意的是,AIME 2024 上的平均 pass@1 得分显著上升,从最初的 15.6% 跃升至令人印象深刻的 71.0%,达到了与 OpenAI-o1-0912 相媲美的性能水平。这一显著提升突显了我们 RL 算法在优化模型性能方面的有效性。

在这里插入图片描述

表 2 提供了 DeepSeek-R1-Zero 与 OpenAI 的 o1-0912 模型在多种推理相关基准测试中的比较分析。研究结果显示,强化学习赋予 DeepSeek-R1-Zero 强大的推理能力,而无需任何监督微调数据。这是一个值得注意的成就,因为它突显了模型仅通过强化学习就能有效地学习和泛化。此外,通过应用多数投票,DeepSeek-R1-Zero 的性能可以进一步提升。例如,当在 AIME 基准测试中使用多数投票时,DeepSeek-R1-Zero 的性能从 71.0% 提升至 86.7%,超越了 OpenAI-o1-0912 的表现。DeepSeek-R1-Zero 在有无多数投票的情况下都能达到如此具有竞争力的表现,突显了其强大的基础能力,并展示了在推理任务中进一步提升的潜力。

在这里插入图片描述

DeepSeek-R1-Zero 的自我进化过程

DeepSeek-R1-Zero 的自我进化过程是一个引人注目的示范,展示了强化学习如何驱动模型自主提升其推理能力。通过直接从基础模型开始强化学习,我们可以在没有监督微调阶段影响的情况下,密切监控模型的进展。这种方法清晰地展示了模型如何随着时间的推移不断进化,特别是在处理复杂推理任务的能力方面。

如图3所示,DeepSeek-R1-Zero的思维时间在整个训练过程中持续改进。这种改进不是外部调整的结果,而是模型内部的自我发展。DeepSeek-R1-Zero通过利用扩展的测试时间计算,自然获得了解决越来越复杂推理任务的能力。这些计算从生成数百个到数千个推理标记不等,使得模型能够更深入地探索和完善其思维过程。

这种自我进化的一个最显著的方面是随着测试时间计算的增加,复杂行为的出现。比如反思行为——模型回顾并重新评估之前的步骤——以及探索问题解决替代方法的行为,都是自发产生的。这些行为并非显式编程所致,而是模型与强化学习环境互动的结果。这种自发的发展显著增强了DeepSeek-R1-Zero的推理能力,使其能够以更高的效率和准确性应对更具挑战性的任务。

在这里插入图片描述

DeepSeek-R1-Zero 的 “顿悟” 时刻

在DeepSeek-R1-Zero的训练过程中,观察到一个特别有趣的现象,即发生了“顿悟”时刻。如表3所示,这一时刻出现在模型的一个中间版本中。在此阶段,DeepSeek-R1-Zero通过重新评估其初始方法,学会了为一个问题分配更多的思考时间。这种行为不仅证明了模型推理能力的提升,而且是强化学习如何导致意外且复杂结果的迷人示例。

在这里插入图片描述

这个时刻不仅是模型的“顿悟”,也是观察其行为的研究人员的“顿悟”。
它强调了强化学习的力量与美妙:我们并没有显式地教模型如何解决问题,而是为其提供了正确的激励,模型自主发展出先进的问题解决策略。这个“顿悟”时刻有力地提醒我们,强化学习能够解锁人工系统中智能的新层次,为未来更具自主性和适应性的模型铺平道路。


DeepSeek-R1-Zero 的缺点

尽管 DeepSeek-R1-Zero 展现了强大的推理能力,并能自主发展出意想不到且强大的推理行为,但它仍然面临一些问题。例如,DeepSeek-R1-Zero 在可读性差和语言混杂等问题上存在困难。为了使推理过程更加易读并与开放社区分享,我们探索了DeepSeek-R1,一种结合了强化学习与人性化冷启动数据的方法。


2.3 DeepSeek-R1:结合冷启动的强化学习

受到DeepSeek-R1-Zero取得的良好结果的启发,产生了两个自然的问题:
(1)通过引入少量高质量数据作为冷启动,是否能够进一步提高推理性能或加速收敛?
(2)如何训练一个既能生成清晰连贯的推理链(CoT),又能展现出强大通用能力的用户友好型模型?

为了解决这些问题,我们设计了一个训练DeepSeek-R1的管道。该管道由四个阶段组成,具体如下:


2.3.1 冷启动

与 DeepSeek-R1-Zero 不同,为了防止RL训练的早期冷启动阶段在基础模型上出现不稳定现象,在 DeepSeek-R1 中,我们构建并收集了少量的长推理链(CoT)数据,用以微调模型,作为初始的 RL 行为体。

为了收集这些数据,我们探索了几种方法:使用少量示例提示与长推理链的结合,直接提示模型生成带有反思和验证的详细回答,收集DeepSeek-R1-Zero输出的可读格式,并通过人工注释员后处理来精炼结果。

在本研究中,我们收集了数千条冷启动数据,用于微调 DeepSeek-V3-Base,作为强化学习的起点。与DeepSeek-R1-Zero相比,冷启动数据的优势包括:

  • 可读性:DeepSeek-R1-Zero的一个关键限制是其内容通常不适合阅读。回答可能会混合多种语言,或者缺乏标记格式来突出显示给用户的答案。相比之下,在为DeepSeek-R1创建冷启动数据时,我们设计了一个可读的模式,其中每个回答末尾都有一个总结,并且过滤掉不适合阅读的回答。这里,我们定义输出格式为 |special_token| |special_token| ,其中推理过程是针对查询的CoT,而总结则用于概括推理结果。
  • 潜力:通过精心设计带有人工先验的冷启动数据模式,我们观察到DeepSeek-R1在性能上优于DeepSeek-R1-Zero。我们认为,迭代训练是推理模型的一种更好的方法。

2.3.2 面向推理的强化学习

在对DeepSeek-V3-Base进行冷启动数据微调后,我们采用与DeepSeek-R1-Zero相同的大规模强化学习训练过程。
这个阶段重点提升模型的推理能力,特别是在推理密集型任务中,如编码、数学、科学和逻辑推理等,这些任务涉及明确定义的问题和清晰的解决方案。在训练过程中,我们观察到CoT经常出现语言混合,尤其是在强化学习提示涉及多种语言时。为了缓解语言混合的问题,我们在强化学习训练中引入了语言一致性奖励,这一奖励是根据推理链中目标语言词汇的比例计算的。尽管消融实验表明,这种对齐会导致模型性能略微下降,但这一奖励与人类偏好一致,使得模型输出更具可读性。
最终,我们通过直接将推理任务的准确性和语言一致性奖励相加,形成最终的奖励。然后,我们对微调后的模型进行强化学习训练,直到其在推理任务上收敛。


2.3.3 拒绝采样与监督微调

当面向推理的强化学习收敛后,我们利用得到的检查点收集监督微调(SFT)数据用于下一轮训练。与最初的冷启动数据主要关注推理不同,这一阶段将涉及其他领域的数据,以增强模型在写作、角色扮演和其他通用任务中的能力。具体来说,我们生成数据并对模型进行微调,如下所述。

推理数据
我们整理推理提示,并通过从上述强化学习训练的检查点执行拒绝采样来生成推理轨迹。在前一个阶段,我们只包含了可以通过基于规则的奖励进行评估的数据。然而,在这一阶段,我们通过加入额外的数据来扩展数据集,其中一些数据使用生成奖励模型,通过将真实标签和模型预测输入DeepSeek-V3进行判断。此外,由于模型输出有时混乱且难以阅读,我们过滤掉了含有混合语言、长段落和代码块的推理链。对于每个提示,我们采样多个响应,并只保留正确的响应。最终,我们收集了约60万个与推理相关的训练样本。

非推理数据
对于非推理数据,如写作、事实问答、自我认知和翻译,我们采用DeepSeek-V3流程并重复使用部分DeepSeek-V3的SFT数据集。对于某些非推理任务,我们通过提示调用DeepSeek-V3生成潜在的推理链,以便在回答问题前使用。然而,对于更简单的查询,例如“你好”,我们不会提供推理链作为回应。最终,我们收集了大约20万个与推理无关的训练样本。

我们使用上述整理好的大约80万个样本数据集对DeepSeek-V3-Base进行两轮微调。


2.3.4 面向所有场景的强化学习

为了进一步使模型与人类偏好对齐,我们实施了一个二次强化学习阶段,旨在提高模型的有用性和无害性,同时精炼其推理能力。具体而言,我们使用奖励信号和多样化的提示分布来训练模型。对于推理数据,我们遵循DeepSeek-R1-Zero中概述的方法,利用基于规则的奖励来引导数学、代码和逻辑推理领域的学习过程。对于一般数据,我们依赖奖励模型来捕捉人类偏好,以应对复杂和微妙的场景。我们在DeepSeek-V3流程的基础上,采用类似的偏好对分布和训练提示。

在有用性方面,我们专注于最终的总结,确保评估重点强调响应对用户的实用性和相关性,同时尽量减少对基础推理过程的干扰。在无害性方面,我们评估模型的整个响应,包括推理过程和总结,以识别并减少生成过程中可能出现的任何潜在风险、偏见或有害内容。最终,奖励信号和多样化数据分布的整合使我们能够训练一个既在推理上表现优异,又优先考虑有用性和无害性的模型。


2.4 蒸馏:赋能小型模型推理能力

为了赋予更高效的小型模型推理能力,例如DeepSeek-R1,我们直接使用 DeepSeek-R1 整理的80万个样本(如 2.3.3 所述)对开源模型进行微调,具体包括 Qwen(Qwen, 2024b)和Llama(AI@Meta, 2024)。我们的研究发现,这种简单的蒸馏方法显著提升了小型模型的推理能力。我们使用的基础模型包括Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.1-8B和Llama-3.3-70B-Instruct。我们选择Llama-3.3,因为它的推理能力略优于Llama-3.1。

对于蒸馏后的模型,我们仅应用了SFT(监督微调),没有包括RL(强化学习)阶段,尽管加入RL可能会显著提升模型性能。我们的主要目标是展示蒸馏技术的有效性,将RL阶段的探索留给更广泛的研究社区。


3. 试验

基准测试(Benchmarks)
我们在多个基准测试上评估模型的表现,包括MMLU (Hendrycks等, 2020),MMLU-Redux (Gema等, 2024),MMLU-Pro (Wang等, 2024),C-Eval (Huang等, 2023),CMMLU (Li等, 2023),IFEval (Zhou等, 2023),FRAMES (Krishna等, 2024),GPQA Diamond (Rein等, 2023),SimpleQA (OpenAI, 2024c),C-SimpleQA (He等, 2024),SWE-Bench Verified (OpenAI, 2024d),Aider,LiveCodeBench (Jain等, 2024)(2024年8月至2025年1月),Codeforces,中国全国中学生数学奥林匹克竞赛(CNMO 2024)3,以及美国邀请数学竞赛(AIME 2024)(MAA, 2024)。
除了标准基准测试外,我们还使用 LLM 作为评估者,评估模型在开放式生成任务上的表现。具体而言,我们遵循 AlpacaEval 2.0(Dubois等, 2024)和Arena-Hard(Li等, 2024)的原始配置,这些配置利用GPT-4-Turbo-1106作为评估者进行成对比较。在评估中,我们只提供最终总结以避免长度偏差。对于蒸馏模型,我们在AIME 2024,MATH-500,GPQA Diamond,Codeforces和LiveCodeBench上报告具有代表性的结果。

评估提示(Evaluation Prompts)
按照DeepSeek-V3的设置,标准基准测试如MMLU、DROP、GPQA Diamond和SimpleQA使用simpleevals框架中的提示进行评估。对于MMLU-Redux,我们在零样本设置下采用Zero-Eval提示格式(Lin, 2024)。在MMLU-Pro、C-Eval和CLUE-WSC的评估中,由于原始提示是少量样本,我们稍微修改了提示,采用零样本设置。少量样本中的Chain-of-Thought(CoT)可能会影响DeepSeek-R1的性能。其他数据集遵循其原始评估协议,并使用创作者提供的默认提示。在代码和数学基准测试方面,HumanEval-Mul数据集涵盖了八种主流编程语言(Python、Java、C++、C#、JavaScript、TypeScript、PHP和Bash)。在LiveCodeBench上的模型表现通过CoT格式进行评估,数据收集时间为2024年8月至2025年1月。Codeforces数据集则使用10场Div.2竞赛的问题和专家设计的测试用例进行评估,随后计算预期评级和竞争者的百分比。SWE-Bench验证结果通过无代理框架(Xia等, 2024)获得。AIDER相关基准使用“diff”格式进行测量。DeepSeek-R1的输出在每个基准测试中限制为最多32,768个标记。

基线(Baselines)
我们针对几个强基准模型进行全面评估,包括DeepSeek-V3、Claude-Sonnet-3.5-1022、GPT-4o-0513、OpenAI-o1-mini和OpenAI-o1-1217。由于在中国大陆访问 OpenAI-o1-1217 的API存在困难,我们基于官方报告评价其性能。对于蒸馏模型,我们还与开源模型QwQ-32B-Preview(Qwen, 2024a)进行了比较。

评估设置(Evaluation Setup)
我们将模型的最大生成长度设置为 32,768 个标记(tokens)。我们发现,使用贪婪解码来评估长输出推理模型会导致更高的重复率,并且不同检查点之间的表现存在显著波动。因此,我们默认使用 pass@ k 评估(Chen等, 2021),并报告pass@1结果,使用非零温度。具体而言,我们使用采样温度 0.6 和 top-p 值 0.95 来为每个问题生成 k 个响应(通常在4~64之间,具体取决于测试集的大小)。然后,pass@1 的计算公式为:

在这里插入图片描述

其中, p i p_i pi​ 表示第 i 个响应的正确性。该方法提供了更可靠的性能估计。对于AIME 2024,我们还报告了共识(多数投票)结果(Wang等, 2022),使用64个样本,记作 cons@64。


3.1 DeepSeek-R1 的评估结果

对于MMLU、MMLU Pro和GPQA Diamond等面向教育的知识基准测试,DeepSeek-R1的性能优于DeepSeek-V3。这一改进主要归因于STEM相关问题的准确性提高,通过大规模强化学习取得了显著成果。此外,DeepSeek-R1在FRAMES方面表现出色,FRAMES是一项依赖于上下文的长期QA任务,展示了其强大的文档分析能力。这突显了推理模型在人工智能驱动的搜索和数据分析任务中的潜力。在事实基准SimpleQA上,DeepSeek-R1的表现优于DeepSeek-V3,展示了其处理基于事实的查询的能力。在OpenAI-o1超过GPT-4o的情况下,也观察到了类似的趋势。然而,在中国SimpleQA基准测试中,DeepSeek-R1的表现不如DeepSeek-V3,主要是因为它倾向于在安全RL后拒绝回答某些查询。如果没有安全RL,DeepSeek-R1的准确率可以达到70%以上。

DeepSeek-R1在IF Eval上也取得了令人印象深刻的结果,IF Eval是一个旨在评估模型遵循格式说明能力的基准。这些改进可能与在监督微调(SFT)和强化学习训练的最后阶段纳入指令跟踪数据有关。此外,在AlpacaEval2.0和ArenaHard上观察到了显著的性能,表明了DeepSeek-R1在编写任务和开放域问答方面的优势。它在DeepSeek-V3上的显著表现突显了大规模RL的泛化优势,这不仅提高了推理能力,还提高了跨不同领域的性能。此外,DeepSeek-R1生成的摘要长度简洁明了,ArenaHard上平均有689个令牌,AlpacaEval 2.0上平均有2218个字符。这表明DeepSeek-R1避免了在基于GPT的评估过程中引入长度偏差,进一步巩固了其在多个任务中的稳健性。

在数学任务方面,DeepSeek-R1的性能与OpenAI-o1-1217相当,远远超过了其他模型。在编码算法任务上也观察到了类似的趋势,例如LiveCodeBench和Codeforce,其中以推理为中心的模型主导了这些基准测试。在面向工程的编码任务中,OpenAI-o1-1217在Aider上的表现优于DeepSeek-R1,但在SWE Verified上的表现相当。我们相信DeepSeek-R1的工程性能将在下一个版本中得到改善,因为目前相关的RL训练数据量仍然非常有限。

在这里插入图片描述


3.2 蒸馏模型 的评估结果

如表5所示,简单地蒸馏DeepSeek-R1的输出使得高效的DeepSeek-R1-7B(即DeepSeek-R1-Distill-Qwen-7B,以下简写)在各项评估指标上超过了非推理模型,如GPT-4o-0513。DeepSeek-R1-14B在所有评估指标上都超越了QwQ-32B-Preview,而DeepSeek-R1-32B和DeepSeek-R1-70B在大多数基准测试中显著超越了o1-minion。这些结果展示了蒸馏技术的强大潜力。此外,我们还发现,将RL应用于这些蒸馏模型能够带来显著的进一步提升。我们认为这一发现值得进一步探索,因此在此仅展示简单SFT蒸馏模型的结果。

在这里插入图片描述


4. 讨论

4.1 蒸馏与强化学习的对比

在第3.2节中,我们可以看到通过蒸馏DeepSeek-R1,小模型能够取得令人印象深刻的结果。然而,仍然有一个问题需要解答:是否可以通过本文讨论的大规模强化学习训练,而不通过蒸馏,来实现相当的性能?

为了解答这个问题,我们在Qwen-32B-Base上进行了大规模的强化学习训练,使用了数学、代码和STEM数据,训练超过10K步,最终得到了DeepSeek-R1-Zero-Qwen-32B。实验结果,如表6所示,表明经过大规模强化学习训练后的32B基模型,在性能上与QwQ-32B-Preview相当。然而,从DeepSeek-R1蒸馏出来的DeepSeek-R1-Distill-Qwen-32B,在所有基准测试中表现明显优于DeepSeek-R1-Zero-Qwen-32B。

因此,我们可以得出两个结论:
首先,将更强大的模型蒸馏为更小的模型可以获得出色的结果,而依赖本文中提到的大规模强化学习的小模型则需要巨大的计算能力,甚至可能无法达到蒸馏模型的性能。
其次,虽然蒸馏策略既经济又有效,但要突破智能的边界,仍然可能需要更强大的基础模型和更大规模的强化学习。

在这里插入图片描述


4.2 不成功的尝试

在开发DeepSeek-R1的早期阶段,我们也遇到了一些失败和挫折。我们在这里分享这些失败经验,以提供一些启示,但这并不意味着这些方法无法开发有效的推理模型。

过程奖励模型(PRM)

PRM是一种合理的方法,可以引导模型朝着更好的方式解决推理任务(Lightman et al., 2023;Uesato et al., 2022;Wang et al., 2023)。然而,实际上,PRM有三个主要限制,可能会妨碍其最终成功。首先,很难明确地定义一般推理中的细粒度步骤。其次,判断当前的中间步骤是否正确是一个具有挑战性的任务。使用模型进行自动标注可能不会产生令人满意的结果,而人工标注又不利于规模化。第三,一旦引入基于模型的PRM,它不可避免地会导致奖励作弊(Gao et al., 2022),并且重新训练奖励模型需要额外的训练资源,复杂化了整个训练流程。总的来说,虽然PRM在重新排序模型生成的前N个响应或辅助引导搜索(Snell et al., 2024)方面表现出色,但与它在大规模强化学习过程中引入的额外计算开销相比,其优势是有限的。

蒙特卡洛树搜索(MCTS)

受AlphaGo(Silver et al., 2017b)和AlphaZero(Silver et al., 2017a)的启发,我们探索了使用蒙特卡洛树搜索(MCTS)来增强测试时的计算可扩展性。该方法涉及将答案拆分成更小的部分,以便模型能够系统地探索解空间。为此,我们提示模型生成多个标签,这些标签对应于搜索所需的特定推理步骤。在训练时,我们首先使用收集的提示,通过一个预训练的价值模型指导MCTS来寻找答案。随后,我们使用得到的问答对来训练演员模型和价值模型,迭代地优化这个过程。

然而,这种方法在扩展训练时遇到了几个挑战。首先,与象棋等搜索空间相对明确的情况不同,令牌生成呈现出指数级增长的搜索空间。为了解决这个问题,我们为每个节点设置了最大扩展限制,但这可能导致模型陷入局部最优解。其次,价值模型直接影响生成的质量,因为它指导了搜索过程的每一步。训练一个细粒度的价值模型本身就很困难,这使得模型在迭代改进时面临挑战。虽然AlphaGo的核心成功依赖于训练一个价值模型来逐步提高其性能,但由于令牌生成的复杂性,这一原则在我们的设置中很难复制。

总之,尽管在推理过程中,MCTS与预训练价值模型配合可以提高性能,但通过自我搜索迭代提升模型性能仍然是一个重大挑战。


5. 结论、局限性与未来工作

在这项工作中,我们分享了通过强化学习提升模型推理能力的过程。DeepSeek-R1-Zero代表了一种纯强化学习方法,无需依赖冷启动数据,在多项任务上实现了强大的性能。而DeepSeek-R1则更加强大,结合了冷启动数据和迭代的强化学习微调。最终,DeepSeek-R1在多项任务中实现了与OpenAI-o1-1217相当的表现。

我们进一步探索了将推理能力蒸馏到小型密集模型中的方法。我们使用DeepSeek-R1作为教师模型,生成了80万个训练样本,并微调了多个小型密集模型。结果令人鼓舞:DeepSeek-R1-Distill-Qwen-1.5B在数学基准测试中超越了GPT-4o和Claude-3.5-Sonnet,在AIME上的得分为28.9%,在MATH上的得分为83.9%。其他密集模型也取得了显著成绩,显著超越了基于相同基础检查点的其他指令调优模型。

在未来,我们计划在以下方向进行DeepSeek-R1的研究和发展:

  • 通用能力:目前,DeepSeek-R1在函数调用、多轮对话、复杂角色扮演和JSON输出等任务上的能力仍不及DeepSeek-V3。未来,我们计划探索如何利用长链推理(CoT)来增强这些领域的任务能力。
  • 语言混合:DeepSeek-R1目前优化了中文和英文,因此在处理其他语言的查询时可能会出现语言混用的问题。例如,DeepSeek-R1可能会使用英文进行推理和回答,即使查询本身是其他语言。我们计划在未来的更新中解决这一局限性。
  • 提示工程:在评估DeepSeek-R1时,我们观察到它对提示非常敏感。少量示例提示会持续降低其性能。因此,我们建议用户直接描述问题并使用零-shot设置指定输出格式,以获得最佳结果。
  • 软件工程任务:由于评估时间较长,影响了强化学习过程的效率,大规模强化学习尚未在软件工程任务中广泛应用。因此,DeepSeek-R1在软件工程基准测试上未能相较于DeepSeek-V3表现出显著提升。未来版本将通过在软件工程数据上实施拒绝采样或在强化学习过程中引入异步评估来提高效率。

参考文献和链接


版权声明:
本文由 youcans@xidian 对论文 DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 进行摘编和翻译。该论文版权属于原文期刊和作者,本译文只供研究学习使用。

youcans@xidian 作品,转载必须标注原文链接:
【DeepSeek论文精读】6. DeepSeek R1:通过强化学习激发大语言模型的推理能力
Copyright 2024 youcans, XIDIAN
Crated:2025-02

注:本文转载自blog.csdn.net的youcans_的文章"https://blog.csdn.net/youcans/article/details/145414922"。版权归原作者所有,此博客不拥有其著作权,亦不承担相应法律责任。如有侵权,请联系我们删除。
复制链接
复制链接
相关推荐
发表评论
登录后才能发表评论和回复 注册

/ 登录

评论记录:

未查询到任何数据!
回复评论:

分类栏目

后端 (14832) 前端 (14280) 移动开发 (3760) 编程语言 (3851) Java (3904) Python (3298) 人工智能 (10119) AIGC (2810) 大数据 (3499) 数据库 (3945) 数据结构与算法 (3757) 音视频 (2669) 云原生 (3145) 云平台 (2965) 前沿技术 (2993) 开源 (2160) 小程序 (2860) 运维 (2533) 服务器 (2698) 操作系统 (2325) 硬件开发 (2492) 嵌入式 (2955) 微软技术 (2769) 软件工程 (2056) 测试 (2865) 网络空间安全 (2948) 网络与通信 (2797) 用户体验设计 (2592) 学习和成长 (2593) 搜索 (2744) 开发工具 (7108) 游戏 (2829) HarmonyOS (2935) 区块链 (2782) 数学 (3112) 3C硬件 (2759) 资讯 (2909) Android (4709) iOS (1850) 代码人生 (3043) 阅读 (2841)

热门文章

101
推荐
关于我们 隐私政策 免责声明 联系我们
Copyright © 2020-2025 蚁人论坛 (iYenn.com) All Rights Reserved.
Scroll to Top