Ollama本地安装基础教程
前言在安装ollama的时候大家有没有下载了几个AI大模型后惊讶地发现系统盘空间所剩无几或者想要将模型文件集中管理却不知道如何改变默认存储路径本文我将手把手教你如何完全掌控Ollama的安装和模型存储位置让大模型“住”进你指定的文件夹一、自定义ollama安装路径首先访问 Ollama 官网下载对应操作系统的安装程序。ollama默认安装在系统盘当AI模型文件几十GB时系统盘很快就会被塞满。Ollama虽然安装包不大但下载的模型文件却相当庞大所以需要通过自定义安装和存储路径在ollama安装目录打开cmd在执行安装得时候制定目录等到安装之后验证是否安装成功ollama --version如果出现ollama对应版本说明安装成功。二、创建大模型存储目录ollama安装完成之后需要设置大模型环境变量也就是制定大模型存储得目录。需要注意的是设置环境变量之后需要重启ollama否则不会生效。接下来就是安装千问大模型执行ollama run qwen2.5如果ollama没有该模型就会去下载这个需要科学上网。三、测试大模型安装完成之后再次执行ollama run qwen2.5 进入聊天模式比如输入你是谁至此自定义ollama安装就已经完成后面下载的ollama大模型也会存储在我们指定的目录中。总结通过自定义Ollama安装路径与模型存储目录成功解决了大模型占满系统盘空间的痛点。只需设置OLLAMA_MODELS环境变量并重启服务就能将模型文件定向存储至指定位置并安装测试千问大模型验证了方案的可行性。这套方法一劳永逸让本地AI模型管理变得井井有条为后续探索更多开源模型奠定了清爽、可控的基础。