10分钟搞定!本地安装 DeepSeek-R1,全流程教程

DeepSeek-R1 作为一款免费开源、推理能力比肩 OpenAI-o1 的国产大模型,一经发布便引爆整个互联网。然而,由于访问量巨大,服务器偶尔会面临延迟甚至宕机的问题。其实,我们可以通过 Ollama 将 DeepSeek-R1 安装在本地电脑,这样无需依赖网络连接,也能轻松使用 DeepSeek-R1 生成各种文本和代码。

硬件要求

处理器(CPU)

至少需要具备 4 核及以上 的处理器,主频不低于 2.5 GHz。更高性能的CPU能够加快模型的的推理速度。

内存(RAM)

  • 1.5B参数模型:最低需要约 4 G RAM。
  • 7B参数模型:建议至少 8-10 G RAM。
  • 更大参数模型(如 70B 或 671B):需要更高的内存,通常需要 40 G 或更多。

显卡(GPU)

对于希望使用 GPU 加速的用户,建议使用支持 CUDA 的 NVIDIA 显卡。例如:

  • 集成显卡(如 NVIDIA GTX 1050)适合简单任务。
  • 独立显卡(如 NVIDIA GTX 1660或更好)适合中等任务。
  • 高端显卡(如 NVIDIA RTX 3090或更高)适合复杂任务。

硬盘空间

至少需要预留 10 GB 的可用硬盘空间(安装 671b 需需预留 450 G 硬盘空间),用于存储模型文件、数据以及相关依赖库。

安装步骤

整个安装过程需 10-15 分钟!

下载 Ollama 安装文件

访问 https://ollama.com/download 下载 Ollama 安装文件。

如何在本地安装 DeepSeek-R1

Ollama 支持 MacOS、Linux 和 Windows 三款操作系统,接下来的安装以 Windows 为例。

安装 Ollama

如何在本地安装 DeepSeek-R1

根据 Ollama 默认安装要求进行安装,无需做任何其他设置与操作。

选择 DeepSeek 模型版本

访问 https://ollama.com/library/deepseek-r1 根据你的机器配置和功能需求选择需要安装的 DeepSeek R1 的版本。

10 分钟本地电脑安装 DeepSeek-R1

模型版本 参数数量 主要特点 性能表现
DeepSeek R1 70B 完整的高性能模型,支持长链推理和强化学习训练。 在数学、代码编写和自然语言推理等任务上表现优异,接近 OpenAI 的 o1。
DeepSeek R1-Distill-32B 32B 蒸馏版模型,旨在提高效率,适合资源有限的环境。 在数学和代码任务上与 OpenAI o1-mini 相当,性能优于 GPT-4o 和 Claude 3.5 Sonnet。
DeepSeek R1-Distill-14B 14B 较小的蒸馏版,进一步优化了计算资源的使用。 性能较 32B 版本略低,但仍具备良好的推理能力。
DeepSeek R1-Distill-8B 8B 更小的蒸馏版,适合对延迟和资源有严格要求的应用场景。 性能下降明显,适合轻量级应用。
DeepSeek R1-Distill-7B 7B 小型蒸馏模型,进一步降低了计算需求。 在特定任务上的表现不如更大模型,但仍可用于基础应用。
DeepSeek R1-Distill-1.5B 1.5B 最小的蒸馏版本,适合极为资源受限的环境。 性能最弱,但对于简单任务仍然有效。

通过 Ollama 安装 DeepSeek-R1

启动 Ollama(Ollama 图标将出现在系统托盘),打开 Windows 命令提示符窗口或 Powershell 窗口。输入需要安装的 DeepSeek-R1 模型版本的执行命令。首次执行,Ollama 会自动下载模型并进行安装。

例如,安装 DeepSeek-R1 8B 模型,运行以下命令行即可。

ollama run deepseek-r1:8b

10 分钟本地电脑安装 DeepSeek-R1

10 分钟本地电脑安装 DeepSeek-R1

运行 DeepSeek-R1

10 分钟本地电脑安装 DeepSeek-R1

安装完毕后就可以在命令提示符窗口和 DeepSeek-R1 聊天了。 <think></think> 之间的内容是模型的思考过程,之后的内容是模型的回答结果。

Ollama 安装程序(百度网盘下载)

如果在 Ollama 官网下载安装程序时遇到问题,也可以通过百度网盘获取安装文件。

链接: https://pan.baidu.com/s/14zKwFEH_Z9g5HBptgf10Lg?pwd=ft2i
提取码: ft2i