最新消息: USBMI致力于为网友们分享Windows、安卓、IOS等主流手机系统相关的资讯以及评测、同时提供相关教程、应用、软件下载等服务。

ollama Windows部署

业界 admin 1浏览 0评论

ollama Windows部署

前言

为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。

原文博客地址:ollama Windows部署-旅程blog (cxy.red)

1. 下载ollama

官方下载地址:https://ollama/download

2. 环境配置

  1. 双击安装包会默认安装在C盘

    ​​

  2. 配置模型保存位置

    1. ​​

    2. OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。

      OLLAMA_MODELS : 指定ollama模型的存放路径

      根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。

      ​​

3. 测试

3.1 网路配置检测

终端输入ipconfig​:查看IP地址

​​

然后打开浏览器测试输入:ip地址:11434

​​

出现ollama is running,表示配置成功

3.2 模型测试

​​

参考文献

  1. Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)

ollama Windows部署

前言

为了部署本地大模型并建立专属知识库,可以使用ollama快速部署本地大模型服务。

原文博客地址:ollama Windows部署-旅程blog (cxy.red)

1. 下载ollama

官方下载地址:https://ollama/download

2. 环境配置

  1. 双击安装包会默认安装在C盘

    ​​

  2. 配置模型保存位置

    1. ​​

    2. OLLAMA_HOST : ollama的监听端口,监听在本机所有地址,方便其它前端服务跨主机访问。

      OLLAMA_MODELS : 指定ollama模型的存放路径

      根据自己的需要配置一下环境变量,之后最好新开一个命令行窗口 ,或者重启一下主机,这样环境变量才会生效。

      ​​

3. 测试

3.1 网路配置检测

终端输入ipconfig​:查看IP地址

​​

然后打开浏览器测试输入:ip地址:11434

​​

出现ollama is running,表示配置成功

3.2 模型测试

​​

参考文献

  1. Ollama on Windows:本地运行大型语言模型(LLM)的新利器 - 系统极客 (sysgeek)

发布评论

评论列表 (0)

  1. 暂无评论