前言
DeepSeek R1是一款国产开源的推理模型,在国内用户群体中受到广泛关注。然而,由于该模型的本地部署教程较少,许多用户在安装和使用过程中可能会遇到困难。本文将详细介绍如何在Windows系统上本地部署DeepSeek R1模型,并配合Open WebUI进行可视化交互。
1. 环境准备
在开始部署前,我们需要准备以下工具:
1.1 下载Ollama
Ollama是一个用于管理和运行本地AI模型的软件。可以在Ollama官网下载并安装。
1.2 下载Docker
Docker是用于容器化管理的工具,它可以帮助我们快速部署Open WebUI来管理DeepSeek R1。可以在Docker官网下载并安装。
Window安装部署Docker可参考教程:Windows 安装docker(详细图解)-CSDN博客
2. 下载并配置DeepSeek R1模型权重
DeepSeek R1的模型权重较大,因此建议提前指定下载路径,以避免占用C盘空间。
2.1 修改模型权重下载路径(可选)
如果不想将模型存储在C盘,可以进行如下操作:
-
1. 打开“系统变量”设置。
-
2. 新建一个环境变量:
-
· 变量名:
OLLAMA_MODELS
-
· 变量值: 选择你希望保存模型的路径,例如
D:\DeepSeek_Models
-
-
3. 重启电脑,使配置生效。
如果你的C盘空间足够,可以跳过此步骤。
2.2 下载模型权重
在Windows上按 Win + R
,输入 powershell
打开终端,并运行以下命令:
ollama run deepseek-r1:7b
此命令会自动下载 DeepSeek R1 7B(70亿参数)模型。下载过程中,如网络中断,可重新运行该命令,系统会自动断点续传。如果下载速度变慢,可以按 Ctrl + C
终止下载并重新执行命令,通常会恢复正常速度。
下载完成后,你可以在终端直接运行DeepSeek R1,并观察它的推理输出。
3. 使用Open WebUI可视化交互
为了更方便地使用DeepSeek R1,我们可以配合Open WebUI进行交互。
3.1 下载并运行Open WebUI
Open WebUI是一个开源的Web界面工具,可以帮助用户在浏览器中与本地模型交互。其开源地址:GitHub - Open WebUI
-
· 打开Powershell,运行以下命令(适用于NVIDIA显卡,如RTX 3060 Laptop):
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
-
· 等待Docker下载和启动WebUI,当界面显示
pull complete
后,即可在Docker Desktop中看到该容器。
-
· 在Docker Desktop中,点击
3000:8000
,即可打开WebUI。
3.2 初次使用与模型导入
-
第一次打开WebUI时,需要创建管理员账户,所有信息均存储在本地。
-
创建用户后,系统会自动加载Ollama下载的DeepSeek R1模型。
-
在WebUI的输入框中输入一段测试文本,即可看到DeepSeek R1的推理结果。
4. 总结
至此,我们已经成功在Windows系统上本地部署了DeepSeek R1,并通过Open WebUI实现了可视化交互。整个流程包括:
1. 安装Ollama和Docker。
2. 配置模型下载路径(可选)。
3. 下载DeepSeek R1模型权重。
4.运行Open WebUI,实现可视化交互。
如果在安装或使用过程中遇到问题,可以参考官方文档或在评论区进行交流。希望这篇教程能帮助到你!(另外,我也在macOS成功部署了该模型,如有疑惑,同样可在评论区留言!)
前言
DeepSeek R1是一款国产开源的推理模型,在国内用户群体中受到广泛关注。然而,由于该模型的本地部署教程较少,许多用户在安装和使用过程中可能会遇到困难。本文将详细介绍如何在Windows系统上本地部署DeepSeek R1模型,并配合Open WebUI进行可视化交互。
1. 环境准备
在开始部署前,我们需要准备以下工具:
1.1 下载Ollama
Ollama是一个用于管理和运行本地AI模型的软件。可以在Ollama官网下载并安装。
1.2 下载Docker
Docker是用于容器化管理的工具,它可以帮助我们快速部署Open WebUI来管理DeepSeek R1。可以在Docker官网下载并安装。
Window安装部署Docker可参考教程:Windows 安装docker(详细图解)-CSDN博客
2. 下载并配置DeepSeek R1模型权重
DeepSeek R1的模型权重较大,因此建议提前指定下载路径,以避免占用C盘空间。
2.1 修改模型权重下载路径(可选)
如果不想将模型存储在C盘,可以进行如下操作:
-
1. 打开“系统变量”设置。
-
2. 新建一个环境变量:
-
· 变量名:
OLLAMA_MODELS
-
· 变量值: 选择你希望保存模型的路径,例如
D:\DeepSeek_Models
-
-
3. 重启电脑,使配置生效。
如果你的C盘空间足够,可以跳过此步骤。
2.2 下载模型权重
在Windows上按 Win + R
,输入 powershell
打开终端,并运行以下命令:
ollama run deepseek-r1:7b
此命令会自动下载 DeepSeek R1 7B(70亿参数)模型。下载过程中,如网络中断,可重新运行该命令,系统会自动断点续传。如果下载速度变慢,可以按 Ctrl + C
终止下载并重新执行命令,通常会恢复正常速度。
下载完成后,你可以在终端直接运行DeepSeek R1,并观察它的推理输出。
3. 使用Open WebUI可视化交互
为了更方便地使用DeepSeek R1,我们可以配合Open WebUI进行交互。
3.1 下载并运行Open WebUI
Open WebUI是一个开源的Web界面工具,可以帮助用户在浏览器中与本地模型交互。其开源地址:GitHub - Open WebUI
-
· 打开Powershell,运行以下命令(适用于NVIDIA显卡,如RTX 3060 Laptop):
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
-
· 等待Docker下载和启动WebUI,当界面显示
pull complete
后,即可在Docker Desktop中看到该容器。
-
· 在Docker Desktop中,点击
3000:8000
,即可打开WebUI。
3.2 初次使用与模型导入
-
第一次打开WebUI时,需要创建管理员账户,所有信息均存储在本地。
-
创建用户后,系统会自动加载Ollama下载的DeepSeek R1模型。
-
在WebUI的输入框中输入一段测试文本,即可看到DeepSeek R1的推理结果。
4. 总结
至此,我们已经成功在Windows系统上本地部署了DeepSeek R1,并通过Open WebUI实现了可视化交互。整个流程包括:
1. 安装Ollama和Docker。
2. 配置模型下载路径(可选)。
3. 下载DeepSeek R1模型权重。
4.运行Open WebUI,实现可视化交互。
如果在安装或使用过程中遇到问题,可以参考官方文档或在评论区进行交流。希望这篇教程能帮助到你!(另外,我也在macOS成功部署了该模型,如有疑惑,同样可在评论区留言!)