近日,中国深度求索公司开发的Deepseek语言大模型风靡全球,很多小伙伴都深受其惠,小组作业、文献综述、信息检索等等都可以通过与其问答轻松解决,既节省时间又方便复制粘贴,实在是居家旅行必备大模型,但是,很多时候大家苦于其“服务器繁忙,请稍后再试”,搞得人特别抓狂,重试N次,仍无结果,大抵是我不配了。但是,岂不闻天无绝人之路,只要我想走,路就在脚下。落魄谷中寒风吹,春秋蝉鸣少年归;荡魂深处食人泪,定仙游走魔向北;逆流河上万仙退,爱情不敌坚持泪;宿命兼程命中败,仙尊悔而我不悔。我清楚的知道人与人的路都是不可复制的,我走在我自己的人生道路上,哪怕路途的风雨再大,大到我步履维艰,哪怕荆棘丛生,刺得我伤痕遍布,我也仍旧痴痴笑笑,我体会此种滋味(bgm:十年人间)。因此,我只需将Deepseek部署到本地,或将解决这一问题,实现它的高效运行。过程不复杂,需要下载的软件安装包都打包放在文后了,大家可以一起试试。
First:安装Ollama
本地运行Deepseek,我们需要先安装一个叫Ollama的工具,这是支持大模型调用的核心工具,Deepseek的运行就基于此。
在安装包文件夹子中找到“OllamaSetup.exe”程序,双击进入安装,点击“Install”然后按流程安装就可以。
安装完成后在电脑中找到Ollama,点击图标或打开就可以启动,可以在状态栏中检查启动状态。完成上述步骤后,Ollama就安装完成了,接下来安装Deepseek模型。
Second:安装Deepseek模型
首先我们打开Deepseek模型页面:Deepseek,大家会看到不同版本模型的介绍,这时候需要根据自己电脑的配置和需求选择一个合适的版本。版本区别在于不同量级,1.5b的量级相对较小,对内存的要求较小,数值越大数据量级越大,对内存等要求越高,计算结果和思考深度更具体。大家可以参考下图的配置,相信配置需求大家可以自行上网检索。这里演示电脑没有独立显卡,运行内存只有8G,就以安装1.5b版本为例。
选定版本后,大家可以复制Deepseek模型页面上的版本安装代码,然后“win+R”键唤醒运行窗口,输入cmd指令,在cmd窗口输入模型安装代码“ollama run deepseek-r1:1.5b”,开始安装Deepseek模型。直至出现“success”,表示安装完成。
Third:安装本地交互界面(以chatbox为例)
如果大家熟练指令操作这一步可以跳过,不熟练指令操作或者倾向于使用聊天交互界面的伙伴可以继续操作。在安装包文件夹中找到“Chatbox-1.9.8-Setup.exe”点击安装。按照安装指引安装就可以。
安装完成后进入chatbox,可以看到界面非常简洁,左面是工具栏,右面是聊天交互界面。我们点击左面下部的设置,进行模型接入和设置。
这里模型提供方选择“OLLAMA API”,会自动生成API域名,域名不要随意更改,否则会导致模型调用失败或者错误,接下来在模型中选择我们下载的Deepseek版本,后面“上下文消息数量”和“严谨与想象”可以根据自己需求进行选择。这时候本地化Deepseek就安装设置完成了。
简单进行问答测试一下:
Windows本地化部署Deepseek就完成了,其他系统操作流程也大体相似,大家可以尝试一下,告别服务器繁忙的无奈。本地化之后,还可以尽情扩展“Deepseek+”功能,搭建本地知识库、开发绘图功能等,大家尽情探索。安装完成并成功使用后,他淡然一笑,他的气息不再掩饰,显露而出,大专巅峰,一瞬间,电子厂再次一寂,我乃大专巅峰,何人敢叼我,谁人能叼我。
安装包文件夹:通过网盘分享的文件:Deepseek本地化部署安装包
链接: https://pan.baidu/s/1AiRljhqxV64mJLOXjItKOQ?pwd=dk4n 提取码: dk4n
注:图片由作者操作截图,文章为作者原创。如有侵权冒犯,请联系删除。转载请注明出处。
近日,中国深度求索公司开发的Deepseek语言大模型风靡全球,很多小伙伴都深受其惠,小组作业、文献综述、信息检索等等都可以通过与其问答轻松解决,既节省时间又方便复制粘贴,实在是居家旅行必备大模型,但是,很多时候大家苦于其“服务器繁忙,请稍后再试”,搞得人特别抓狂,重试N次,仍无结果,大抵是我不配了。但是,岂不闻天无绝人之路,只要我想走,路就在脚下。落魄谷中寒风吹,春秋蝉鸣少年归;荡魂深处食人泪,定仙游走魔向北;逆流河上万仙退,爱情不敌坚持泪;宿命兼程命中败,仙尊悔而我不悔。我清楚的知道人与人的路都是不可复制的,我走在我自己的人生道路上,哪怕路途的风雨再大,大到我步履维艰,哪怕荆棘丛生,刺得我伤痕遍布,我也仍旧痴痴笑笑,我体会此种滋味(bgm:十年人间)。因此,我只需将Deepseek部署到本地,或将解决这一问题,实现它的高效运行。过程不复杂,需要下载的软件安装包都打包放在文后了,大家可以一起试试。
First:安装Ollama
本地运行Deepseek,我们需要先安装一个叫Ollama的工具,这是支持大模型调用的核心工具,Deepseek的运行就基于此。
在安装包文件夹子中找到“OllamaSetup.exe”程序,双击进入安装,点击“Install”然后按流程安装就可以。
安装完成后在电脑中找到Ollama,点击图标或打开就可以启动,可以在状态栏中检查启动状态。完成上述步骤后,Ollama就安装完成了,接下来安装Deepseek模型。
Second:安装Deepseek模型
首先我们打开Deepseek模型页面:Deepseek,大家会看到不同版本模型的介绍,这时候需要根据自己电脑的配置和需求选择一个合适的版本。版本区别在于不同量级,1.5b的量级相对较小,对内存的要求较小,数值越大数据量级越大,对内存等要求越高,计算结果和思考深度更具体。大家可以参考下图的配置,相信配置需求大家可以自行上网检索。这里演示电脑没有独立显卡,运行内存只有8G,就以安装1.5b版本为例。
选定版本后,大家可以复制Deepseek模型页面上的版本安装代码,然后“win+R”键唤醒运行窗口,输入cmd指令,在cmd窗口输入模型安装代码“ollama run deepseek-r1:1.5b”,开始安装Deepseek模型。直至出现“success”,表示安装完成。
Third:安装本地交互界面(以chatbox为例)
如果大家熟练指令操作这一步可以跳过,不熟练指令操作或者倾向于使用聊天交互界面的伙伴可以继续操作。在安装包文件夹中找到“Chatbox-1.9.8-Setup.exe”点击安装。按照安装指引安装就可以。
安装完成后进入chatbox,可以看到界面非常简洁,左面是工具栏,右面是聊天交互界面。我们点击左面下部的设置,进行模型接入和设置。
这里模型提供方选择“OLLAMA API”,会自动生成API域名,域名不要随意更改,否则会导致模型调用失败或者错误,接下来在模型中选择我们下载的Deepseek版本,后面“上下文消息数量”和“严谨与想象”可以根据自己需求进行选择。这时候本地化Deepseek就安装设置完成了。
简单进行问答测试一下:
Windows本地化部署Deepseek就完成了,其他系统操作流程也大体相似,大家可以尝试一下,告别服务器繁忙的无奈。本地化之后,还可以尽情扩展“Deepseek+”功能,搭建本地知识库、开发绘图功能等,大家尽情探索。安装完成并成功使用后,他淡然一笑,他的气息不再掩饰,显露而出,大专巅峰,一瞬间,电子厂再次一寂,我乃大专巅峰,何人敢叼我,谁人能叼我。
安装包文件夹:通过网盘分享的文件:Deepseek本地化部署安装包
链接: https://pan.baidu/s/1AiRljhqxV64mJLOXjItKOQ?pwd=dk4n 提取码: dk4n
注:图片由作者操作截图,文章为作者原创。如有侵权冒犯,请联系删除。转载请注明出处。