一、下载与安装Ollama
-
访问官网:
- 打开浏览器,访问Ollama官网。
-
下载安装包:
- 在官网页面上,点击“Download”按钮。
- 选择适合的安装包类型,对于Windows系统,直接选择对应的安装包进行下载。
如果需要更改默认安装路径,可以在命令行中使用以下命令:
OllamaSetup.exe /DIR="d:\\some\\location"
。安装完成后,打开命令提示符(CMD)或PowerShell,输入ollama --version
,如果返回版本号,表示安装成功
-
运行安装包:
- 下载完成后,双击安装包文件,按照提示进行安装。
- 安装过程中可能需要点击“Install”按钮,并等待安装完成。
-
验证安装:
- 安装完成后,打开“命令提示符”(可以通过同时按Windows键和R键,然后输入cmd并回车来打开)。
- 在命令提示符中输入“ollama --version”,如果显示版本号,则说明安装成功。
二、配置与运行Ollama
-
查看模型保存路径:
- 默认情况下,Ollama会将模型保存在系统盘路径下,这可能导致系统盘存储空间耗尽。
- 可以通过命令“echo %OLLAMA_MODELS%”来查看当前Ollama模型的保存路径。
- 如果需要更改模型保存路径,可以通过设置环境变量“OLLAMA_MODELS”来实现,然后重启Ollama服务使更改生效。
配置环境变量:为了更改模型存储路径,需要设置环境变量。打开“控制面板”或“启动设置”,搜索并编辑用户账户的环境变量。添加或编辑变量名为
OLLAMA_MODELS
,值为希望存储模型的路径。例如,将模型存储在D盘的ollama
文件夹,则变量值为D:\\ollama
。更改后需要重启电脑才能使设置生效
-
下载模型:
- 在Ollama官网首页,点击最上方的“Search models”进行模型搜索。
- 选择适合自己的模型,并复制模型的链接。
- 将复制的链接粘贴到命令提示符中,并回车等待下载完成。
-
运行模型:
- 下载完成后,可以在命令提示符中输入“ollama list”来查看已下载的模型列表。
- 通过命令“ollama run [模型名称]”来运行所选的模型。
打开命令提示符,使用以下命令下载并加载模型:
ollama pull <model_name>
。例如,下载GPT-3模型可以使用命令:ollama pull gpt-3
。下载完成后,使用命令ollama run <model_name>
来运行模型
三、高级配置与访问
-
安装Open WebUI:
- 为了更方便地与Ollama进行交互,可以安装Open WebUI。
- 首先需要在Windows系统上安装Docker,然后访问Open WebUI的GitHub页面获取部署命令。
- 在Docker中运行部署命令,等待安装完成后,即可通过浏览器访问Open WebUI的web界面。
-
实现远程访问:
- 如果需要在公网环境下访问本地部署的Ollama模型,可以借助cpolar等内网穿透工具来实现。
- 在cpolar官网上注册并下载最新版本的cpolar,然后按照提示进行安装和配置。
- 配置完成后,即可通过生成的公网访问地址来远程访问本地的Ollama模型。
注意事项
- 在进行Ollama本地部署时,请确保已安装显卡驱动及CUDA程序(如果需要使用GPU加速)。
- 根据自己的电脑配置选择合适的模型参数大小,以避免因配置不足而导致的运行问题。
- 在下载和运行模型时,请耐心等待,因为模型的下载和运行可能需要一些时间。
通过以上步骤,您可以在Windows环境下成功部署并运行Ollama大语言模型。
一、下载与安装Ollama
-
访问官网:
- 打开浏览器,访问Ollama官网。
-
下载安装包:
- 在官网页面上,点击“Download”按钮。
- 选择适合的安装包类型,对于Windows系统,直接选择对应的安装包进行下载。
如果需要更改默认安装路径,可以在命令行中使用以下命令:
OllamaSetup.exe /DIR="d:\\some\\location"
。安装完成后,打开命令提示符(CMD)或PowerShell,输入ollama --version
,如果返回版本号,表示安装成功
-
运行安装包:
- 下载完成后,双击安装包文件,按照提示进行安装。
- 安装过程中可能需要点击“Install”按钮,并等待安装完成。
-
验证安装:
- 安装完成后,打开“命令提示符”(可以通过同时按Windows键和R键,然后输入cmd并回车来打开)。
- 在命令提示符中输入“ollama --version”,如果显示版本号,则说明安装成功。
二、配置与运行Ollama
-
查看模型保存路径:
- 默认情况下,Ollama会将模型保存在系统盘路径下,这可能导致系统盘存储空间耗尽。
- 可以通过命令“echo %OLLAMA_MODELS%”来查看当前Ollama模型的保存路径。
- 如果需要更改模型保存路径,可以通过设置环境变量“OLLAMA_MODELS”来实现,然后重启Ollama服务使更改生效。
配置环境变量:为了更改模型存储路径,需要设置环境变量。打开“控制面板”或“启动设置”,搜索并编辑用户账户的环境变量。添加或编辑变量名为
OLLAMA_MODELS
,值为希望存储模型的路径。例如,将模型存储在D盘的ollama
文件夹,则变量值为D:\\ollama
。更改后需要重启电脑才能使设置生效
-
下载模型:
- 在Ollama官网首页,点击最上方的“Search models”进行模型搜索。
- 选择适合自己的模型,并复制模型的链接。
- 将复制的链接粘贴到命令提示符中,并回车等待下载完成。
-
运行模型:
- 下载完成后,可以在命令提示符中输入“ollama list”来查看已下载的模型列表。
- 通过命令“ollama run [模型名称]”来运行所选的模型。
打开命令提示符,使用以下命令下载并加载模型:
ollama pull <model_name>
。例如,下载GPT-3模型可以使用命令:ollama pull gpt-3
。下载完成后,使用命令ollama run <model_name>
来运行模型
三、高级配置与访问
-
安装Open WebUI:
- 为了更方便地与Ollama进行交互,可以安装Open WebUI。
- 首先需要在Windows系统上安装Docker,然后访问Open WebUI的GitHub页面获取部署命令。
- 在Docker中运行部署命令,等待安装完成后,即可通过浏览器访问Open WebUI的web界面。
-
实现远程访问:
- 如果需要在公网环境下访问本地部署的Ollama模型,可以借助cpolar等内网穿透工具来实现。
- 在cpolar官网上注册并下载最新版本的cpolar,然后按照提示进行安装和配置。
- 配置完成后,即可通过生成的公网访问地址来远程访问本地的Ollama模型。
注意事项
- 在进行Ollama本地部署时,请确保已安装显卡驱动及CUDA程序(如果需要使用GPU加速)。
- 根据自己的电脑配置选择合适的模型参数大小,以避免因配置不足而导致的运行问题。
- 在下载和运行模型时,请耐心等待,因为模型的下载和运行可能需要一些时间。
通过以上步骤,您可以在Windows环境下成功部署并运行Ollama大语言模型。