很多人在使用 OpenClaw 时,希望能够直接调用本地的大模型,而不是依赖云端 API。 通过Ollama,我们可以非常方便地在本地运行模型(例如 Qwen、LLAMA等),并让 OpenClaw 直接调用。
这篇文章将一步一步介绍如何:
让 OpenClaw 连接本地 Ollama 模型。
一、前置条件在开始之前,请确保已经安装:
- OpenClaw
- Ollama
可以通过以下命令检查是否安装成功: openclaw --versionollama --version
二、让 OpenClaw 连接 Ollama OpenClaw 需要一个 API Key 来识别 Ollama 服务。由于 Ollama 是本地服务,所以这个 Key 可以是任意字符串。
方法 1:设置环境变量export OLLAMA_API_KEY="ollama-local"
方法 2:通过 OpenClaw 配置 openclaw config set models.providers.ollama.apiKey "ollama-local"
三、确认 Ollama 服务正在运行
检查 Ollama 服务: curl http://localhost:11434/api/tags
如果没有运行,可以启动 ollama serve
四、检查 OpenClaw 模型
查看 OpenClaw 当前可用模型: openclaw models list
如果没有 Ollama 模型,可以添加: ollama launch openclaw # 然选择想要添加的模型ollama launch openclaw --model qwen3:8b # 已经明确想要添加的模型
五、运行 OpenClaw 初始化向导
运行配置向导: openclaw onboard
OpenClaw 会自动检测本地 Ollama 服务。在向导中可以根据以下选择: ◆ I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?│ ● Yes / ○ No◆ Onboarding mode│ ● QuickStart (Configure details later via openclaw configure.)│ ○ Manual
然后会显示目前正在连接着的模型,本文使用的是 ollama/qwen3:8b 模型作为例子: ◇ Existing config detected ─────────╮│ ││ workspace: ~/.openclaw/workspace ││ model: ollama/qwen3:8b ││ gateway.mode: local ││ gateway.port: 18789 ││ gateway.bind: loopback ││ │├────────────────────────────────────╯
这里选择Use existing values或者Update values都可以,但不能选Reset: ◆ Config handling│ ● Use existing values│ ○ Update values│ ○ Reset
Model provider选Skip for now: ◆ Model/auth provider│ ...│ ○ Cloudflare AI Gateway│ ○ Custom Provider│ ● Skip for now
选All providers: ◆ Filter models by provider│ ● All providers│ ○ amazon-bedrock│ ○ anthropic│ ○ azure-openai-responses...
在Default Model里,连接着的Ollama 模型应该会出现在最上面,并作为默认模型,选这个就可以了,例如: ◆ Default model│ ● Keep current (ollama/qwen3:8b)│ ○ Enter model manually│ ○ amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0│ ○ amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0...
此时,OpenClaw 已经成功连接到本地 Ollama 模型了。接下来的步骤按自己需求设置就可以了: ......◆ How do you want to hatch your bot?│ ○ Hatch in TUI (recommended)│ ● Open the Web UI│ ○ Do this later
六、开始使用 OpenClaw + Ollama
向导完成后,OpenClaw 会自动打开 Web UI。
此时你的机器人已经可以使用本地 Ollama 模型来运行了。如果想切换模型,可以: ollama launch openclaw
也可以直接指定模型: ollama launch openclaw --model qwen3:8b
七、常见问题
1. Ollama API 无法访问
确认 Ollama 服务正在运行: ollama serve
再次测试 curl http://localhost:11434/api/tags
2. OpenClaw 检测不到 Ollama 模型
查看 Ollama 已安装模型: ollama list
如果没有模型,可以下载一个,例如: ollama pull qwen3:8b
然后连接: ollama launch openclaw --model qwen3:8b
总结
整个流程如下:
1. 安装 OpenClaw 和 Ollama
2. 设置 Ollama API Key,让OpenClaw 连接到 Ollama
3. 启动 Ollama 服务
4. 运行检查 OpenClaw 的Ollama模型
5. 运行 OpenClaw 初始化向导
|