欢迎来到本地大模型的奇妙世界!Ollama 让这一切变得非常简单。
核心理念
把 Ollama 想象成 “大模型的 Docker”。它帮你轻松下载、管理和运行各种开源大语言模型(LLMs),并提供一个标准的 API 接口供其他应用调用。
一、安装 Ollama
安装过程非常简单,通常一键搞定。
- macOS: 下载 .dmg 安装包 直接安装。
- Windows: 下载 .exe 安装包 直接安装。
- Linux: 在终端中运行以下命令:
1
curl -fsSL https://ollama.com/install.sh | sh
- (可选) Docker 方式:
1
2docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
验证安装:安装后,打开你的终端(Terminal, PowerShell 或 CMD),输入以下命令,如果看到版本号,说明安装成功。
1 | ollama --version |
二、核心命令备忘单 (Cheat Sheet)
这些是你日常使用中最频繁的命令,掌握它们就能轻松玩转 Ollama。
运行/下载模型
1 | ollama run <模型名> |
功能: 这是最核心、最常用的命令。如果模型不在本地,它会自动下载并立即运行,让你直接进入对话模式。
示例: ollama run llama3
列出本地已下载的模型
1 | ollama list |
功能: 查看你电脑上已经有了哪些模型,以及它们的大小和下载时间。
示例: ollama list
仅下载模型(不运行)
1 | ollama pull <模型名> |
功能: 当你想提前准备好一个模型但暂时不想用它时,这个命令很有用。它只会下载,不会进入对话。
示例: ollama pull llama3:8b-instruct
删除本地模型
1 | ollama rm <模型名> |
功能: 释放磁盘空间。大模型很占地方,用这个命令可以删掉不常用的模型。
示例: ollama rm llama3
查看模型详细信息
1 | ollama show <模型名> |
功能: 了解一个模型的“底细”,比如它的系统提示词 (System Prompt)、参数 (Parameters) 和模板 (Template) 等。
示例: ollama show qwen:7b
复制(克隆)模型
1 | ollama cp <源模型> <新模型名> |
功能: 这是创建自定义模型的第一步,相当于给一个现有模型创建一个副本,然后你可以在副本上进行修改。
示例: ollama cp llama3 my-custom-llama
创建自定义模型
1 | ollama create <新模型名> -f <Modelfile路径> |
功能: 使用一个名为 Modelfile 的配置文件来创建一个属于你自己的、带有特定指令或配置的模型。
示例: ollama create my-assistant -f ./Modelfile
启动后台服务
1 | ollama serve |
功能: 手动启动Ollama的后台服务。一般情况下你不需要用它,因为安装后它会自动运行。排查问题时可能会用到。
示例: ollama serve
查看聊天内置命令
1 | /? |
功能: 在 ollama run 的交互式聊天中,输入 /? 或 /help 可以查看所有可用的特殊命令,比如 /set, /show, /bye 等。
示例: 在和模型聊天时,直接输入 /?
三、你需要了解的关键知识
1. 模型标签 (Model Tags)
Ollama 的模型命名遵循 <模型名>:<标签> 的格式,类似于 Docker 镜像。
- 不写标签:
ollama run llama3等同于ollama run llama3:latest,会使用最新的默认版本。 - 指定参数大小:
qwen:7b(70亿参数),qwen:14b(140亿参数)。 - 指定量化版本:
llama3:8b-instruct-q4_K_M。q代表量化 (Quantization),是一种压缩技术,让模型占用更少的内存和显存。量化等级越低,模型越小越快,但精度可能略有损失。对于个人电脑,通常使用 q4 或 q5 的版本是很好的平衡点。
你可以在 Ollama 官方模型库 找到所有可用的模型和它们的标签。
2. Modelfile (自定义模型的关键)
这是 Ollama 的精髓!Modelfile 是一个简单的文本文件,就像模型的“配方”,让你能够定制模型的行为。
你可以做什么?
- 修改系统提示词 (System Prompt):让模型扮演特定角色,比如“你是一个专业的 Python 程序员”。
- 调整模型参数:比如
temperature(随机性) 等。 - 设置交互模板。
简单示例 (Modelfile):
创建一个名为 Modelfile 的文件(无后缀),内容如下:
1 | # 基础模型 |
如何使用?
- 在终端中,进入
Modelfile所在的目录。 - 运行创建命令:
1
ollama create poetry-assistant -f ./Modelfile
- 现在你就有了一个名为
poetry-assistant的专属模型了!运行它:1
ollama run poetry-assistant
3. API 使用
Ollama 会自动在本地 11434 端口开启一个与 OpenAI 兼容的 API 服务。这意味着,大量支持 OpenAI API 的应用都可以无缝对接到你本地的 Ollama。
- API 地址:
http://localhost:11434 - 简单测试 (使用 curl):
1
2
3
4
5curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "你好,请介绍一下你自己",
"stream": false
}'
四、实用小贴士 (Tips & Tricks)
- 寻找模型:首选 Ollama 官方模型库,这里有最全的模型列表和用法说明。
- 管理资源:大模型非常消耗内存(RAM)和磁盘空间。
ollama list可以查看大小,不需要的模型及时用ollama rm删除。 - 使用图形界面 (GUI):如果你不喜欢命令行,可以安装很多优秀的第三方客户端来与 Ollama 交互,例如:
- Open WebUI (功能强大,强烈推荐)
- Bionic-GPT, LibreChat 等。
- 更新模型:要获取一个模型的最新版本,再次
pull它即可。1
ollama pull llama3
这份备忘单应该足够你开始探索 Ollama 了。从 ollama run 开始,亲手体验在自己电脑上运行大模型的乐趣吧!祝你玩得开心!