ollama Windows部署
前言
为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。
原文博客地址:ollama Windows部署-旅程blog (cxy.red)
1. 下载ollama
官方下载地址:https://ollama/download
2. 环境配置
-
双击安装包会默认安装在C盘
-
配置模型保存位置
-
-
OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。
OLLAMA_MODELS : 指定ollama模型的存放路径
根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。
-
3. 测试
3.1 网路配置检测
终端输入ipconfig:查看IP地址
然后打开浏览器测试输入:ip地址:11434
出现ollama is running,表示配置成功
3.2 模型测试
参考文献
- Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)
ollama Windows部署
前言
为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。
原文博客地址:ollama Windows部署-旅程blog (cxy.red)
1. 下载ollama
官方下载地址:https://ollama/download
2. 环境配置
-
双击安装包会默认安装在C盘
-
配置模型保存位置
-
-
OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。
OLLAMA_MODELS : 指定ollama模型的存放路径
根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。
-
3. 测试
3.1 网路配置检测
终端输入ipconfig:查看IP地址
然后打开浏览器测试输入:ip地址:11434
出现ollama is running,表示配置成功
3.2 模型测试
参考文献
- Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)