首先登录ollama官网下载Ollama
下载后右上角点击打开文件进行安装
ollama默认安装在C盘且不可在下载时更改设置,如需改变至D盘,需要下载完成后进行修改
修改方式:
(1)更改Ollama应用位置 将C盘C:\Users\用户名\AppData\Local\Programs\Ollama文件夹移动到D盘,例如改为D:\Ollama
(2)更改Ollama模型位置 将C盘C:\Users\用户名\.ollama文件夹移到D盘,例如改为D:\Ollama\.ollama
(3)修改环境变量(搜索框搜索环境变量)
在用户变量中Path中新建,添加D:\Ollama
在系统变量中新建,名称为OLLAMA_MODELS
安装完成后,使用win+R键输入cmd点击Enter进入命令行窗口输入命令
ollama run deepseek-r1
默认下载的是大小为4.7G的文件,就是7b的内容,版本为latest,如果想用其他版本如1.5b版本,只需要将代码改为
ollama run deepseek-r1:1.5b
其余版本更改后面的“1.5b”即可
如果需要下载其他的数据量,根据电脑配置进行判断是否能成果运行本地部署「DeepSeek」模型硬件配置要求 - 小羿
✅ DeepSeek-R1-1.5B
- CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
- 内存: 8GB+
- 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
- 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
- 场景:低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备
✅ DeepSeek-R1-7B
- CPU: 8 核以上(推荐现代多核 CPU)
- 内存: 16GB+
- 硬盘: 8GB+(模型文件约 4-5GB)
- 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
- 场景:中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统
✅ DeepSeek-R1-8B
- CPU: 8 核以上(推荐现代多核 CPU)
- 内存: 16GB+
- 硬盘: 8GB+(模型文件约 4-5GB)
- 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
- 场景:需更高精度的轻量级任务(如代码生成、逻辑推理)
✅ DeepSeek-R1-14B
- CPU: 12 核以上
- 内存: 32GB+
- 硬盘: 15GB+
- 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
- 场景:企业级复杂任务、长文本理解与生成
✅ DeepSeek-R1-32B
- CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
- 内存: 64GB+
- 硬盘: 30GB+
- 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
- 场景:高精度专业领域任务、多模态任务预处理
✅ DeepSeek-R1-70B
- CPU: 32 核以上(服务器级 CPU)
- 内存: 128GB+
- 硬盘: 70GB+
- 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
- 场景:科研机构/大型企业、高复杂度生成任务
✅ DeepSeek-R1-671B
- CPU: 64 核以上(服务器集群)
- 内存: 512GB+
- 硬盘: 300GB+
- 显卡: 多节点分布式训练(如 8x A100/H100)
- 场景:超大规模 AI 研究、通用人工智能(AGI)探索
下载成功后会出现
(如果下载速度变慢,可用通过ctrl+c暂停,通过方向键(上)得到命令内容,再次enter会暂时加快速度,可以多次尝试)
此时deepseek功能已经完全可用,其中<think></think>中内容就是深度思考的内容,如果内容不够美观,可以其他应用进行界面化,如AnythingLLM
首先下载AnythingLLMDownload AnythingLLM for Desktop
下载完成后点击打开文件安装
此应用可以直接更改目标文件夹进行安装
安装过程中可能会出现小弹窗,不用管
安装完成界面如下:
双击运行AnythingLLM
在这个界面选择ollama,同时保证"ollama run deepseek-r1"在cmd中打开
此时在下方API Key中将自动检测到下载的版本,后续的内容全都点击右键,直到有一个添加工作区的内容出现进行命名即可,这将会是未来的对话框,我命名的名称是“1”
因此在如下界面中点击“1”即可开始对话
如果后续需要更改模型可以模型可以通过下方设置进行更改
首先登录ollama官网下载Ollama
下载后右上角点击打开文件进行安装
ollama默认安装在C盘且不可在下载时更改设置,如需改变至D盘,需要下载完成后进行修改
修改方式:
(1)更改Ollama应用位置 将C盘C:\Users\用户名\AppData\Local\Programs\Ollama文件夹移动到D盘,例如改为D:\Ollama
(2)更改Ollama模型位置 将C盘C:\Users\用户名\.ollama文件夹移到D盘,例如改为D:\Ollama\.ollama
(3)修改环境变量(搜索框搜索环境变量)
在用户变量中Path中新建,添加D:\Ollama
在系统变量中新建,名称为OLLAMA_MODELS
安装完成后,使用win+R键输入cmd点击Enter进入命令行窗口输入命令
ollama run deepseek-r1
默认下载的是大小为4.7G的文件,就是7b的内容,版本为latest,如果想用其他版本如1.5b版本,只需要将代码改为
ollama run deepseek-r1:1.5b
其余版本更改后面的“1.5b”即可
如果需要下载其他的数据量,根据电脑配置进行判断是否能成果运行本地部署「DeepSeek」模型硬件配置要求 - 小羿
✅ DeepSeek-R1-1.5B
- CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
- 内存: 8GB+
- 硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
- 显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
- 场景:低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备
✅ DeepSeek-R1-7B
- CPU: 8 核以上(推荐现代多核 CPU)
- 内存: 16GB+
- 硬盘: 8GB+(模型文件约 4-5GB)
- 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
- 场景:中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统
✅ DeepSeek-R1-8B
- CPU: 8 核以上(推荐现代多核 CPU)
- 内存: 16GB+
- 硬盘: 8GB+(模型文件约 4-5GB)
- 显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
- 场景:需更高精度的轻量级任务(如代码生成、逻辑推理)
✅ DeepSeek-R1-14B
- CPU: 12 核以上
- 内存: 32GB+
- 硬盘: 15GB+
- 显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
- 场景:企业级复杂任务、长文本理解与生成
✅ DeepSeek-R1-32B
- CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
- 内存: 64GB+
- 硬盘: 30GB+
- 显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
- 场景:高精度专业领域任务、多模态任务预处理
✅ DeepSeek-R1-70B
- CPU: 32 核以上(服务器级 CPU)
- 内存: 128GB+
- 硬盘: 70GB+
- 显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
- 场景:科研机构/大型企业、高复杂度生成任务
✅ DeepSeek-R1-671B
- CPU: 64 核以上(服务器集群)
- 内存: 512GB+
- 硬盘: 300GB+
- 显卡: 多节点分布式训练(如 8x A100/H100)
- 场景:超大规模 AI 研究、通用人工智能(AGI)探索
下载成功后会出现
(如果下载速度变慢,可用通过ctrl+c暂停,通过方向键(上)得到命令内容,再次enter会暂时加快速度,可以多次尝试)
此时deepseek功能已经完全可用,其中<think></think>中内容就是深度思考的内容,如果内容不够美观,可以其他应用进行界面化,如AnythingLLM
首先下载AnythingLLMDownload AnythingLLM for Desktop
下载完成后点击打开文件安装
此应用可以直接更改目标文件夹进行安装
安装过程中可能会出现小弹窗,不用管
安装完成界面如下:
双击运行AnythingLLM
在这个界面选择ollama,同时保证"ollama run deepseek-r1"在cmd中打开
此时在下方API Key中将自动检测到下载的版本,后续的内容全都点击右键,直到有一个添加工作区的内容出现进行命名即可,这将会是未来的对话框,我命名的名称是“1”
因此在如下界面中点击“1”即可开始对话
如果后续需要更改模型可以模型可以通过下方设置进行更改