10分钟搞定!本地安装 DeepSeek-R1,全流程教程

DeepSeek-R1 国产开源大模型,推理能力媲美 OpenAI-o1。本文提供基于 Ollama 的本地安装全流程,适配 Windows/macOS/Linux,10–15 分钟即可离线运行。涵盖硬件要求、6 款模型(1.5B–70B)对比及一键启动命令,轻量设备也能低门槛体验高性能推理。

发布于2025年1月28日 02:47
编辑零重力瓦力
评论0
阅读23

10分钟搞定!本地安装 DeepSeek-R1,全流程教程

DeepSeek-R1 作为一款免费开源、推理能力比肩 OpenAI-o1 的国产大模型,一经发布便引爆整个互联网。然而,由于访问量巨大,服务器偶尔会面临延迟甚至宕机的问题。其实,我们可以通过 Ollama 将 DeepSeek-R1 安装在本地电脑,这样无需依赖网络连接,也能轻松使用 DeepSeek-R1 生成各种文本和代码。

硬件要求

处理器(CPU)

至少需要具备 4 核及以上 的处理器,主频不低于 2.5 GHz。更高性能的CPU能够加快模型的的推理速度。

内存(RAM)

  • 1.5B参数模型:最低需要约 4 G RAM。
  • 7B参数模型:建议至少 8-10 G RAM。
  • 更大参数模型(如 70B 或 671B):需要更高的内存,通常需要 40 G 或更多。

显卡(GPU)

对于希望使用 GPU 加速的用户,建议使用支持 CUDA 的 NVIDIA 显卡。例如:

  • 集成显卡(如 NVIDIA GTX 1050)适合简单任务。
  • 独立显卡(如 NVIDIA GTX 1660或更好)适合中等任务。
  • 高端显卡(如 NVIDIA RTX 3090或更高)适合复杂任务。

硬盘空间

至少需要预留 10 GB 的可用硬盘空间(安装 671b 需需预留 450 G 硬盘空间),用于存储模型文件、数据以及相关依赖库。

安装步骤

整个安装过程需 10-15 分钟!

下载 Ollama 安装文件

访问 https://ollama.com/download 下载 Ollama 安装文件。

如何在本地安装 DeepSeek-R1

Ollama 支持 MacOS、Linux 和 Windows 三款操作系统,接下来的安装以 Windows 为例。

安装 Ollama

如何在本地安装 DeepSeek-R1

根据 Ollama 默认安装要求进行安装,无需做任何其他设置与操作。

选择 DeepSeek 模型版本

访问 https://ollama.com/library/deepseek-r1 根据你的机器配置和功能需求选择需要安装的 DeepSeek R1 的版本。

10 分钟本地电脑安装 DeepSeek-R1

模型版本 参数数量 主要特点 性能表现
DeepSeek R1 70B 完整的高性能模型,支持长链推理和强化学习训练。 在数学、代码编写和自然语言推理等任务上表现优异,接近 OpenAI 的 o1。
DeepSeek R1-Distill-32B 32B 蒸馏版模型,旨在提高效率,适合资源有限的环境。 在数学和代码任务上与 OpenAI o1-mini 相当,性能优于 GPT-4o 和 Claude 3.5 Sonnet。
DeepSeek R1-Distill-14B 14B 较小的蒸馏版,进一步优化了计算资源的使用。 性能较 32B 版本略低,但仍具备良好的推理能力。
DeepSeek R1-Distill-8B 8B 更小的蒸馏版,适合对延迟和资源有严格要求的应用场景。 性能下降明显,适合轻量级应用。
DeepSeek R1-Distill-7B 7B 小型蒸馏模型,进一步降低了计算需求。 在特定任务上的表现不如更大模型,但仍可用于基础应用。
DeepSeek R1-Distill-1.5B 1.5B 最小的蒸馏版本,适合极为资源受限的环境。 性能最弱,但对于简单任务仍然有效。

通过 Ollama 安装 DeepSeek-R1

启动 Ollama(Ollama 图标将出现在系统托盘),打开 Windows 命令提示符窗口或 Powershell 窗口。输入需要安装的 DeepSeek-R1 模型版本的执行命令。首次执行,Ollama 会自动下载模型并进行安装。

例如,安装 DeepSeek-R1 8B 模型,运行以下命令行即可。

ollama run deepseek-r1:8b

10 分钟本地电脑安装 DeepSeek-R1

10 分钟本地电脑安装 DeepSeek-R1

运行 DeepSeek-R1

10 分钟本地电脑安装 DeepSeek-R1

安装完毕后就可以在命令提示符窗口和 DeepSeek-R1 聊天了。 <think></think> 之间的内容是模型的思考过程,之后的内容是模型的回答结果。

Ollama 安装程序(百度网盘下载)

如果在 Ollama 官网下载安装程序时遇到问题,也可以通过百度网盘获取安装文件。

链接: https://pan.baidu.com/s/14zKwFEH_Z9g5HBptgf10Lg?pwd=ft2i
提取码: ft2i

相关文章

AI 基础知识
AI 教程知识
2026年4月17日
0 条评论
小创

AI 基础知识

本指南系统介绍了 AI 基础概念,帮助初学者建立清晰的认知框架。 AI 是一个包含多种技术的广泛领域,其中大语言模型专注于语言处理,其本质是基于上下文预测下一个语言单位。模型训练分为预训练和后训练两个阶段,前者赋予广泛技能,后者负责植入安全准则和交互风格。模型可分为快速响应的非推理模型和深度思考的推理模型,适用于不同场景。理解“AI—模型—大语言模型—产品”四个层级的包含关系,是有效使用 AI 工具的关键。

#AI 模型
阅读全文
Anthropic 发布 Claude Opus 4.7 模型,覆盖网页、应用和 API
AI 产品工具
2026年4月17日
0 条评论
小创

Anthropic 发布 Claude Opus 4.7 模型,覆盖网页、应用和 API

Anthropic 发布 Claude Opus 4.7 ,在代码生成、工作流管理、高分辨率图像理解及指令跟随等方面实现显著突破,新增自主执行与验证复杂项目能力。该模型定价维持不变,同时引入网络安全专项防滥用保障机制,标志着 AI 厂商从“被动合规”向“主动设计安全边界”的转变,为企业用户提供无需额外成本的确定性能力升级。

#Anthropic#AI 模型
阅读全文
Meta 开始向 Meta AI 智能体推出“沉思模式”
AI 产品工具
2026年4月14日
0 条评论
小创

Meta 开始向 Meta AI 智能体推出“沉思模式”

Meta 向所有用户免费开放 Muse Spark 的 Contemplating 模式,采用 16 个智能体并行推理架构,在基准测试中性能对标 Google 和 OpenAI 顶尖模型。 Muse Spark 已位列全球 AI 助手第一梯队,发布后 24 小时内 App Store 排名跃升至第 5 位,全球安装量达 6050 万次。此举旨在以免费策略撬动付费竞品市场,将 AI 助手竞争从“能力对比”转向“生态争夺”。

#AI 模型#Muse Spark#Meta
阅读全文
互动讨论

评论区

围绕《10分钟搞定!本地安装 DeepSeek-R1,全流程教程》展开交流,未登录用户可浏览评论,登录后可参与讨论。

评论数
0
登录后参与评论
支持发表观点与回复一级评论,互动后将同步到消息中心。
登录后评论
暂无评论,欢迎成为第一个参与讨论的人。