Ollama 完整安装与模型部署步骤清单
一、前置准备(安装前检查)
-
硬件确认
-
显卡:优先 NVIDIA 显卡(支持 CUDA,需安装对应版本显卡驱动);无独显也可通过 CPU 运行(速度较慢)。
-
内存:最低 8GB(运行 4B 模型),推荐 16GB+(8B/30B 模型)。
-
磁盘空间:预留至少 10GB(4B 模型约 4GB,8B 约 8GB,30B 约 15GB)。
-
-
系统环境
-
Windows:Windows 10/11 64位(推荐);macOS:macOS 11+;Linux:Ubuntu 20.04+。
-
二、Ollama 安装步骤
Windows 系统(以你之前的路径为例)
-
下载安装包
-
备用地址:可通过 GitHub 发布页下载对应版本。
-
执行安装
-
方式1(PowerShell 安装,指定路径):# 进入安装包所在目录(如 F:\ollama) cd F:\ollama # 执行安装,指定安装目录 .\OllamaSetup.exe /DIR="F:\ollama"
-
方式2(图形化安装):双击安装包,手动选择安装路径(建议非C盘),一路下一步完成安装。
-
-
验证安装
-
打开新的 PowerShell/CMD,输入命令:ollama -v
-
输出版本号(如
ollama version 0.1.48)即安装成功。
-
macOS/Linux 系统(补充参考)
-
macOS:
curl https://ollama.com/install.sh | sh -
Linux:
curl -fsSL https://ollama.com/install.sh | sh
三、模型部署(以 Qwen3 系列为例)
-
启动 Ollama 服务
-
Windows:安装后自动启动服务,无需手动操作;若未启动,可在「服务」中找到「Ollama」并启动。
-
其他系统:
ollama serve(后台运行)。
-
-
拉取并运行模型
-
运行 Qwen3-4B(入门首选):ollama run qwen3:4b
-
运行 Qwen3-8B(中端配置):ollama run qwen3:8b
-
运行 Qwen3-30B(高端配置):ollama run qwen3:30b
-
首次运行会自动下载模型文件(耐心等待,根据网速可能需要数分钟)。
-
-
验证模型运行
-
模型加载完成后,输入测试指令(如
你好,介绍一下自己),能正常回复即部署成功。
-
四、常用操作(管理模型/服务)
-
查看已安装模型ollama list
-
停止模型运行
-
聊天界面按
Ctrl + D退出当前模型。
-
-
删除不需要的模型ollama rm qwen3:4b # 删除指定模型
-
重启 Ollama 服务(Windows)net stop ollama && net start ollama
五、优化建议(提升运行体验)
-
显存不足时:Ollama 会自动启用 CPU+GPU 混合模式,也可手动指定量化版本(如
qwen3:4b-int4)。 -
加速下载:可配置国内镜像源(需修改 Ollama 配置文件,新手可暂不操作)。
-
后台运行模型:ollama run qwen3:4b & # Linux/macOS 后台运行
总结
-
核心步骤:安装 Ollama → 拉取模型 → 运行验证,全程通过命令行即可完成。
-
硬件适配:4B 模型适配多数电脑,8B 需中端显卡,30B 需高端显卡/24GB+ 显存。
-
关键验证:通过
ollama -v确认安装,通过聊天指令确认模型运行。
© 版权声明
THE END





![[win]Wallpaper Engine 2.5.28冬季离线版 来源吾爱-伍陆随笔](https://wpqiniu.940216.top/2024/12/20241212142911824.webp)




暂无评论内容