DeepSeek R1 是如何炼成的

DeepSeek R1 经历V1至R1 Zero四阶段迭代,融合强化学习与监督微调,采用MoE架构提升效率;仅用2048块H800 GPU即逼近OpenAI顶级模型性能,显著降低训练与推理成本,推动高效透明AI推理落地。

发布于2025年2月7日 14:46
作者零重力瓦力
评论0
阅读0

DeepSeek 的发展并非一蹴而就。最早的 DeepSeek V1 诞生于 2024 年 1 月,拥有 670 亿参数。短短几个月后,V2 版本发布,参数量激增至 2360 亿,并引入了多头隐藏注意力机制和混合专家(MoE)架构,提高了模型的运行效率。同年 12 月,V3 版本问世,参数量达到 6710 亿,并首次在训练中引入强化学习。随后,2025 年 1 月,DeepSeek R1 Zero 作为首个推理模型发布,完全基于强化学习训练,为最终版本 R1 奠定了基础。R1 结合了强化学习和监督微调,性能进一步提升,接近 OpenAI 的顶级模型。

DeepSeek 能以相对较低的成本运行,关键在于它使用了远少于竞争对手的 GPU 进行训练。例如,DeepSeek V3 仅用了 2048 块 Nvidia H800 GPU,而 Meta 在训练 Llama 4 时使用了超过 10 万张。这种高效的训练方式部分归功于 MoE 架构,该架构将模型划分为多个专家网络,每次仅激活最相关的部分,从而减少计算资源消耗,提高推理速度。

除了 DeepSeek,其他公司也在探索 MoE 结构,例如法国的 Mistral 和 IBM 的 Granite。但 DeepSeek R1 之所以特别,是因为它凭借更少的资源,达到了行业领先模型的推理表现,同时降低了训练和运行成本。这标志着 AI 推理模型进入了一个更高效、更透明的新阶段。

相关文章

互动讨论

评论区

围绕《DeepSeek R1 是如何炼成的》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。