IndieBits - 独立开发碎碎念

探索海外独立开发 | 学习 · 思考 · 实践

Ollama 命令速查表(Cheat Sheet)

欢迎来到本地大模型的奇妙世界!Ollama 让这一切变得非常简单。

核心理念

把 Ollama 想象成 “大模型的 Docker”。它帮你轻松下载、管理和运行各种开源大语言模型(LLMs),并提供一个标准的 API 接口供其他应用调用。


一、安装 Ollama

安装过程非常简单,通常一键搞定。

  • macOS: 下载 .dmg 安装包 直接安装。
  • Windows: 下载 .exe 安装包 直接安装。
  • Linux: 在终端中运行以下命令:
    1
    curl -fsSL https://ollama.com/install.sh | sh
  • (可选) Docker 方式:
    1
    2
    docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

验证安装:安装后,打开你的终端(Terminal, PowerShell 或 CMD),输入以下命令,如果看到版本号,说明安装成功。

1
ollama --version

二、核心命令备忘单 (Cheat Sheet)

这些是你日常使用中最频繁的命令,掌握它们就能轻松玩转 Ollama。

运行/下载模型

1
ollama run <模型名>

功能: 这是最核心、最常用的命令。如果模型不在本地,它会自动下载并立即运行,让你直接进入对话模式。
示例: ollama run llama3

列出本地已下载的模型

1
ollama list

功能: 查看你电脑上已经有了哪些模型,以及它们的大小和下载时间。
示例: ollama list

仅下载模型(不运行)

1
ollama pull <模型名>

功能: 当你想提前准备好一个模型但暂时不想用它时,这个命令很有用。它只会下载,不会进入对话。
示例: ollama pull llama3:8b-instruct

删除本地模型

1
ollama rm <模型名>

功能: 释放磁盘空间。大模型很占地方,用这个命令可以删掉不常用的模型。
示例: ollama rm llama3

查看模型详细信息

1
ollama show <模型名>

功能: 了解一个模型的“底细”,比如它的系统提示词 (System Prompt)、参数 (Parameters) 和模板 (Template) 等。
示例: ollama show qwen:7b

复制(克隆)模型

1
ollama cp <源模型> <新模型名>

功能: 这是创建自定义模型的第一步,相当于给一个现有模型创建一个副本,然后你可以在副本上进行修改。
示例: ollama cp llama3 my-custom-llama

创建自定义模型

1
ollama create <新模型名> -f <Modelfile路径>

功能: 使用一个名为 Modelfile 的配置文件来创建一个属于你自己的、带有特定指令或配置的模型。
示例: ollama create my-assistant -f ./Modelfile

启动后台服务

1
ollama serve

功能: 手动启动Ollama的后台服务。一般情况下你不需要用它,因为安装后它会自动运行。排查问题时可能会用到。
示例: ollama serve

查看聊天内置命令

1
/?

功能:ollama run 的交互式聊天中,输入 /?/help 可以查看所有可用的特殊命令,比如 /set, /show, /bye 等。
示例: 在和模型聊天时,直接输入 /?


三、你需要了解的关键知识

1. 模型标签 (Model Tags)

Ollama 的模型命名遵循 <模型名>:<标签> 的格式,类似于 Docker 镜像。

  • 不写标签ollama run llama3 等同于 ollama run llama3:latest,会使用最新的默认版本。
  • 指定参数大小qwen:7b (70亿参数), qwen:14b (140亿参数)。
  • 指定量化版本llama3:8b-instruct-q4_K_Mq 代表量化 (Quantization),是一种压缩技术,让模型占用更少的内存和显存。量化等级越低,模型越小越快,但精度可能略有损失。对于个人电脑,通常使用 q4 或 q5 的版本是很好的平衡点。

你可以在 Ollama 官方模型库 找到所有可用的模型和它们的标签。

2. Modelfile (自定义模型的关键)

这是 Ollama 的精髓!Modelfile 是一个简单的文本文件,就像模型的“配方”,让你能够定制模型的行为。

你可以做什么?

  • 修改系统提示词 (System Prompt):让模型扮演特定角色,比如“你是一个专业的 Python 程序员”。
  • 调整模型参数:比如 temperature (随机性) 等。
  • 设置交互模板

简单示例 (Modelfile):
创建一个名为 Modelfile 的文件(无后缀),内容如下:

1
2
3
4
5
6
7
8
9
10
# 基础模型
FROM llama3

# 设置模型参数
PARAMETER temperature 0.8

# 设置系统级指令,定义角色
SYSTEM """
你是一个精通中国古诗词的AI助手。你的回答总是简洁、优雅,并尽可能引用相关的诗句。
"""

如何使用?

  1. 在终端中,进入 Modelfile 所在的目录。
  2. 运行创建命令:
    1
    ollama create poetry-assistant -f ./Modelfile
  3. 现在你就有了一个名为 poetry-assistant 的专属模型了!运行它:
    1
    ollama run poetry-assistant

3. API 使用

Ollama 会自动在本地 11434 端口开启一个与 OpenAI 兼容的 API 服务。这意味着,大量支持 OpenAI API 的应用都可以无缝对接到你本地的 Ollama。

  • API 地址: http://localhost:11434
  • 简单测试 (使用 curl):
    1
    2
    3
    4
    5
    curl http://localhost:11434/api/generate -d '{
    "model": "llama3",
    "prompt": "你好,请介绍一下你自己",
    "stream": false
    }'

四、实用小贴士 (Tips & Tricks)

  1. 寻找模型:首选 Ollama 官方模型库,这里有最全的模型列表和用法说明。
  2. 管理资源:大模型非常消耗内存(RAM)和磁盘空间。ollama list 可以查看大小,不需要的模型及时用 ollama rm 删除。
  3. 使用图形界面 (GUI):如果你不喜欢命令行,可以安装很多优秀的第三方客户端来与 Ollama 交互,例如:
    • Open WebUI (功能强大,强烈推荐)
    • Bionic-GPT, LibreChat 等。
  4. 更新模型:要获取一个模型的最新版本,再次 pull 它即可。
    1
    ollama pull llama3

这份备忘单应该足够你开始探索 Ollama 了。从 ollama run 开始,亲手体验在自己电脑上运行大模型的乐趣吧!祝你玩得开心!

0%