最新消息: USBMI致力于为网友们分享Windows、安卓、IOS等主流手机系统相关的资讯以及评测、同时提供相关教程、应用、软件下载等服务。

【Ollama+Open WebUI】Windows本地部署DeepSeek R1模型:完整指南

业界 admin 11浏览 0评论

前言

DeepSeek R1是一款国产开源的推理模型,在国内用户群体中受到广泛关注。然而,由于该模型的本地部署教程较少,许多用户在安装和使用过程中可能会遇到困难。本文将详细介绍如何在Windows系统上本地部署DeepSeek R1模型,并配合Open WebUI进行可视化交互。

1. 环境准备

在开始部署前,我们需要准备以下工具:

1.1 下载Ollama

Ollama是一个用于管理和运行本地AI模型的软件。可以在Ollama官网下载并安装。

1.2 下载Docker

Docker是用于容器化管理的工具,它可以帮助我们快速部署Open WebUI来管理DeepSeek R1。可以在Docker官网下载并安装。

Window安装部署Docker可参考教程:Windows 安装docker(详细图解)-CSDN博客

2. 下载并配置DeepSeek R1模型权重

DeepSeek R1的模型权重较大,因此建议提前指定下载路径,以避免占用C盘空间。

2.1 修改模型权重下载路径(可选)

如果不想将模型存储在C盘,可以进行如下操作:

  1. 1. 打开“系统变量”设置。

  2. 2. 新建一个环境变量:

    • · 变量名: OLLAMA_MODELS

    • · 变量值: 选择你希望保存模型的路径,例如 D:\DeepSeek_Models

  3. 3. 重启电脑,使配置生效。

如果你的C盘空间足够,可以跳过此步骤。

2.2 下载模型权重

在Windows上按 Win + R,输入 powershell 打开终端,并运行以下命令:

ollama run deepseek-r1:7b

此命令会自动下载 DeepSeek R1 7B(70亿参数)模型。下载过程中,如网络中断,可重新运行该命令,系统会自动断点续传。如果下载速度变慢,可以按 Ctrl + C 终止下载并重新执行命令,通常会恢复正常速度。

下载完成后,你可以在终端直接运行DeepSeek R1,并观察它的推理输出。

3. 使用Open WebUI可视化交互

为了更方便地使用DeepSeek R1,我们可以配合Open WebUI进行交互。

3.1 下载并运行Open WebUI

Open WebUI是一个开源的Web界面工具,可以帮助用户在浏览器中与本地模型交互。其开源地址:GitHub - Open WebUI​​​​​​

  1. · 打开Powershell,运行以下命令(适用于NVIDIA显卡,如RTX 3060 Laptop):

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
  1. · 等待Docker下载和启动WebUI,当界面显示 pull complete 后,即可在Docker Desktop中看到该容器。

  1. · 在Docker Desktop中,点击 3000:8000,即可打开WebUI。

3.2 初次使用与模型导入

  • 第一次打开WebUI时,需要创建管理员账户,所有信息均存储在本地。

  • 创建用户后,系统会自动加载Ollama下载的DeepSeek R1模型。

  • 在WebUI的输入框中输入一段测试文本,即可看到DeepSeek R1的推理结果。

4. 总结

至此,我们已经成功在Windows系统上本地部署了DeepSeek R1,并通过Open WebUI实现了可视化交互。整个流程包括:

1. 安装Ollama和Docker。

2. 配置模型下载路径(可选)。

3. 下载DeepSeek R1模型权重。

4.运行Open WebUI,实现可视化交互。

如果在安装或使用过程中遇到问题,可以参考官方文档或在评论区进行交流。希望这篇教程能帮助到你!(另外,我也在macOS成功部署了该模型,如有疑惑,同样可在评论区留言!)

 

前言

DeepSeek R1是一款国产开源的推理模型,在国内用户群体中受到广泛关注。然而,由于该模型的本地部署教程较少,许多用户在安装和使用过程中可能会遇到困难。本文将详细介绍如何在Windows系统上本地部署DeepSeek R1模型,并配合Open WebUI进行可视化交互。

1. 环境准备

在开始部署前,我们需要准备以下工具:

1.1 下载Ollama

Ollama是一个用于管理和运行本地AI模型的软件。可以在Ollama官网下载并安装。

1.2 下载Docker

Docker是用于容器化管理的工具,它可以帮助我们快速部署Open WebUI来管理DeepSeek R1。可以在Docker官网下载并安装。

Window安装部署Docker可参考教程:Windows 安装docker(详细图解)-CSDN博客

2. 下载并配置DeepSeek R1模型权重

DeepSeek R1的模型权重较大,因此建议提前指定下载路径,以避免占用C盘空间。

2.1 修改模型权重下载路径(可选)

如果不想将模型存储在C盘,可以进行如下操作:

  1. 1. 打开“系统变量”设置。

  2. 2. 新建一个环境变量:

    • · 变量名: OLLAMA_MODELS

    • · 变量值: 选择你希望保存模型的路径,例如 D:\DeepSeek_Models

  3. 3. 重启电脑,使配置生效。

如果你的C盘空间足够,可以跳过此步骤。

2.2 下载模型权重

在Windows上按 Win + R,输入 powershell 打开终端,并运行以下命令:

ollama run deepseek-r1:7b

此命令会自动下载 DeepSeek R1 7B(70亿参数)模型。下载过程中,如网络中断,可重新运行该命令,系统会自动断点续传。如果下载速度变慢,可以按 Ctrl + C 终止下载并重新执行命令,通常会恢复正常速度。

下载完成后,你可以在终端直接运行DeepSeek R1,并观察它的推理输出。

3. 使用Open WebUI可视化交互

为了更方便地使用DeepSeek R1,我们可以配合Open WebUI进行交互。

3.1 下载并运行Open WebUI

Open WebUI是一个开源的Web界面工具,可以帮助用户在浏览器中与本地模型交互。其开源地址:GitHub - Open WebUI​​​​​​

  1. · 打开Powershell,运行以下命令(适用于NVIDIA显卡,如RTX 3060 Laptop):

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
  1. · 等待Docker下载和启动WebUI,当界面显示 pull complete 后,即可在Docker Desktop中看到该容器。

  1. · 在Docker Desktop中,点击 3000:8000,即可打开WebUI。

3.2 初次使用与模型导入

  • 第一次打开WebUI时,需要创建管理员账户,所有信息均存储在本地。

  • 创建用户后,系统会自动加载Ollama下载的DeepSeek R1模型。

  • 在WebUI的输入框中输入一段测试文本,即可看到DeepSeek R1的推理结果。

4. 总结

至此,我们已经成功在Windows系统上本地部署了DeepSeek R1,并通过Open WebUI实现了可视化交互。整个流程包括:

1. 安装Ollama和Docker。

2. 配置模型下载路径(可选)。

3. 下载DeepSeek R1模型权重。

4.运行Open WebUI,实现可视化交互。

如果在安装或使用过程中遇到问题,可以参考官方文档或在评论区进行交流。希望这篇教程能帮助到你!(另外,我也在macOS成功部署了该模型,如有疑惑,同样可在评论区留言!)

 

与本文相关的文章

发布评论

评论列表 (0)

  1. 暂无评论