一、安装:在Windows和Mac上安装DeepSeek的操作步骤如下:
Windows系统
-
下载并安装Ollama
- 打开浏览器,访问Ollama官网。
- 点击页面右上角的“Download”按钮。
- 根据您的Windows系统版本,选择合适的安装包进行下载。
- 下载完成后,双击安装包并按照提示完成安装。请注意,安装程序可能会直接将Ollama安装在C盘,且不支持更改路径,因此需要确保C盘有足够的空间(通常要求至少5GB的空余空间)。
-
验证Ollama安装成功
- 打开命令提示符(可以通过按
Win + R
键,输入cmd
后回车打开)。 - 输入命令
ollama -v
,如果安装正确,命令提示符将显示Ollama的版本号。
- 打开命令提示符(可以通过按
-
下载并运行DeepSeek模型
- 打开命令提示符(以管理员身份运行,可以通过右键点击命令提示符图标,选择“以管理员身份运行”)。
- 输入命令
ollama run deepseek-r1:模型参数
,例如,ollama run deepseek-r1:7b
,以下载并运行DeepSeek-R1的7B参数版本。模型参数越大,所需的显存和磁盘空间也越大,您可以根据自己的硬件配置选择合适的参数。 - 等待模型下载并运行。下载时间取决于您的网络速度和模型大小,下载过程中请保持网络连接稳定。
-
与DeepSeek进行交互
- 模型下载并运行后,命令提示符将显示
>>>
符号,表示您可以开始与DeepSeek进行对话。 - 输入您的问题或指令,DeepSeek将给出相应的回答或执行相应的任务。
- 模型下载并运行后,命令提示符将显示
注意:
- DeepSeek模型下载后,默认会保存在C盘。如果需要更改保存路径,可以在Ollama的配置文件中进行设置。
- DeepSeek支持多种模型参数,包括1.5B、7B、8B、14B、32B等。模型参数越大,性能通常越好,但对硬件配置的要求也越高。
- 如果您希望在图形界面下与DeepSeek进行交互,可以安装支持Ollama的第三方客户端软件,如ChatWise等。
Mac系统
-
下载并安装Ollama
- 打开浏览器,访问Ollama官网。
- 点击页面右上角的“Download”按钮。
- 根据您的Mac系统版本,选择合适的安装包进行下载。
- 下载完成后,双击安装包并按照提示完成安装。
-
验证Ollama安装成功
- 打开终端(可以通过按
Command + 空格键
,输入“终端”后回车打开)。 - 输入命令
ollama -v
,如果安装正确,终端将显示Ollama的版本号。
- 打开终端(可以通过按
-
下载并运行DeepSeek模型
- 打开终端。
- 输入命令
ollama run deepseek-r1:模型参数
,例如,ollama run deepseek-r1:7b
,以下载并运行DeepSeek-R1的7B参数版本。 - 等待模型下载并运行。下载时间取决于您的网络速度和模型大小。
-
与DeepSeek进行交互
- 模型下载并运行后,终端将显示
>>>
符号,表示您可以开始与DeepSeek进行对话。 - 输入您的问题或指令,DeepSeek将给出相应的回答或执行相应的任务。
- 模型下载并运行后,终端将显示
注意:
- 与Windows系统相同,Mac上的DeepSeek模型下载后,默认也会保存在系统盘。如果需要更改保存路径,可以在Ollama的配置文件中进行设置。
- Mac用户同样可以根据自己的硬件配置选择合适的DeepSeek模型参数。
- 如果希望在图形界面下与DeepSeek进行交互,可以安装支持Ollama的第三方客户端软件。
二、测试:在mac上的实际测试,安装的是7b模型。
运行以上指令,进入以下模式
问他一个简单问题,“你是谁”
他的回复比较慢,个人笔记本资源不够。
除了了资源过载,电脑重启了,第一次碰见。
后续的测试沿用以上方式进行,性能和国内普通大模型对比来说,没有太多的优势。但是训练成本确实按照他们的技术文档来说,是有很大的降低的。(20分之一的降低?)
三、后续我会把deepseek的模型训练复现的过程也写到这里,欢迎大家马克关注,也是对我的一种敦促。
想要深入了解大模型的原理,开发,应用,市场的,也欢迎关注留言,我们的团队已经跑通了大模型对个人的市场,欢迎大家加入。
一、安装:在Windows和Mac上安装DeepSeek的操作步骤如下:
Windows系统
-
下载并安装Ollama
- 打开浏览器,访问Ollama官网。
- 点击页面右上角的“Download”按钮。
- 根据您的Windows系统版本,选择合适的安装包进行下载。
- 下载完成后,双击安装包并按照提示完成安装。请注意,安装程序可能会直接将Ollama安装在C盘,且不支持更改路径,因此需要确保C盘有足够的空间(通常要求至少5GB的空余空间)。
-
验证Ollama安装成功
- 打开命令提示符(可以通过按
Win + R
键,输入cmd
后回车打开)。 - 输入命令
ollama -v
,如果安装正确,命令提示符将显示Ollama的版本号。
- 打开命令提示符(可以通过按
-
下载并运行DeepSeek模型
- 打开命令提示符(以管理员身份运行,可以通过右键点击命令提示符图标,选择“以管理员身份运行”)。
- 输入命令
ollama run deepseek-r1:模型参数
,例如,ollama run deepseek-r1:7b
,以下载并运行DeepSeek-R1的7B参数版本。模型参数越大,所需的显存和磁盘空间也越大,您可以根据自己的硬件配置选择合适的参数。 - 等待模型下载并运行。下载时间取决于您的网络速度和模型大小,下载过程中请保持网络连接稳定。
-
与DeepSeek进行交互
- 模型下载并运行后,命令提示符将显示
>>>
符号,表示您可以开始与DeepSeek进行对话。 - 输入您的问题或指令,DeepSeek将给出相应的回答或执行相应的任务。
- 模型下载并运行后,命令提示符将显示
注意:
- DeepSeek模型下载后,默认会保存在C盘。如果需要更改保存路径,可以在Ollama的配置文件中进行设置。
- DeepSeek支持多种模型参数,包括1.5B、7B、8B、14B、32B等。模型参数越大,性能通常越好,但对硬件配置的要求也越高。
- 如果您希望在图形界面下与DeepSeek进行交互,可以安装支持Ollama的第三方客户端软件,如ChatWise等。
Mac系统
-
下载并安装Ollama
- 打开浏览器,访问Ollama官网。
- 点击页面右上角的“Download”按钮。
- 根据您的Mac系统版本,选择合适的安装包进行下载。
- 下载完成后,双击安装包并按照提示完成安装。
-
验证Ollama安装成功
- 打开终端(可以通过按
Command + 空格键
,输入“终端”后回车打开)。 - 输入命令
ollama -v
,如果安装正确,终端将显示Ollama的版本号。
- 打开终端(可以通过按
-
下载并运行DeepSeek模型
- 打开终端。
- 输入命令
ollama run deepseek-r1:模型参数
,例如,ollama run deepseek-r1:7b
,以下载并运行DeepSeek-R1的7B参数版本。 - 等待模型下载并运行。下载时间取决于您的网络速度和模型大小。
-
与DeepSeek进行交互
- 模型下载并运行后,终端将显示
>>>
符号,表示您可以开始与DeepSeek进行对话。 - 输入您的问题或指令,DeepSeek将给出相应的回答或执行相应的任务。
- 模型下载并运行后,终端将显示
注意:
- 与Windows系统相同,Mac上的DeepSeek模型下载后,默认也会保存在系统盘。如果需要更改保存路径,可以在Ollama的配置文件中进行设置。
- Mac用户同样可以根据自己的硬件配置选择合适的DeepSeek模型参数。
- 如果希望在图形界面下与DeepSeek进行交互,可以安装支持Ollama的第三方客户端软件。
二、测试:在mac上的实际测试,安装的是7b模型。
运行以上指令,进入以下模式
问他一个简单问题,“你是谁”
他的回复比较慢,个人笔记本资源不够。
除了了资源过载,电脑重启了,第一次碰见。
后续的测试沿用以上方式进行,性能和国内普通大模型对比来说,没有太多的优势。但是训练成本确实按照他们的技术文档来说,是有很大的降低的。(20分之一的降低?)
三、后续我会把deepseek的模型训练复现的过程也写到这里,欢迎大家马克关注,也是对我的一种敦促。
想要深入了解大模型的原理,开发,应用,市场的,也欢迎关注留言,我们的团队已经跑通了大模型对个人的市场,欢迎大家加入。