找回密码
 立即注册
查看: 69|回复: 0

手把手教你用 OpenClaw + Ollama跑本地大模型机器人

[复制链接]

10

主题

0

回帖

80

积分

管理员

积分
80
发表于 5 天前 | 显示全部楼层 |阅读模式
很多人在使用 OpenClaw 时,希望能够直接调用本地的大模型,而不是依赖云端 API。 通过Ollama,我们可以非常方便地在本地运行模型(例如 Qwen、LLAMA等),并让 OpenClaw 直接调用。

这篇文章将一步一步介绍如何:
让 OpenClaw 连接本地 Ollama 模型。

一、前置条件
在开始之前,请确保已经安装:
- OpenClaw  
- Ollama  

可以通过以下命令检查是否安装成功:
openclaw --versionollama --version

二、让 OpenClaw 连接 Ollama
OpenClaw 需要一个 API Key 来识别 Ollama 服务。由于 Ollama 是本地服务,所以这个 Key 可以是任意字符串。

方法 1:设置环境变量export OLLAMA_API_KEY="ollama-local"
方法 2:通过 OpenClaw 配置
openclaw config set models.providers.ollama.apiKey "ollama-local"

三、确认 Ollama 服务正在运行
检查 Ollama 服务:
curl http://localhost:11434/api/tags
如果没有运行,可以启动
ollama serve

四、检查 OpenClaw 模型
查看 OpenClaw 当前可用模型:
openclaw models list
如果没有 Ollama 模型,可以添加:
ollama launch openclaw # 然选择想要添加的模型ollama launch openclaw --model qwen3:8b # 已经明确想要添加的模型

五、运行 OpenClaw 初始化向导

运行配置向导:
openclaw onboard
OpenClaw 会自动检测本地 Ollama 服务。在向导中可以根据以下选择:
◆  I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?│  ● Yes / ○ No◆  Onboarding mode│  ● QuickStart (Configure details later via openclaw configure.)│  ○ Manual
然后会显示目前正在连接着的模型,本文使用的是 ollama/qwen3:8b 模型作为例子:
◇  Existing config detected ─────────╮│                                    ││  workspace: ~/.openclaw/workspace  ││  model: ollama/qwen3:8b            ││  gateway.mode: local               ││  gateway.port: 18789               ││  gateway.bind: loopback            ││                                    │├────────────────────────────────────╯
这里选择Use existing values或者Update values都可以,但不能选Reset:
◆  Config handling│  ● Use existing values│  ○ Update values│  ○ Reset
Model provider选Skip for now:
◆  Model/auth provider│  ...│  ○ Cloudflare AI Gateway│  ○ Custom Provider│  ● Skip for now
选All providers:
◆  Filter models by provider│  ● All providers│  ○ amazon-bedrock│  ○ anthropic│  ○ azure-openai-responses...
在Default Model里,连接着的Ollama 模型应该会出现在最上面,并作为默认模型,选这个就可以了,例如:
◆  Default model│  ● Keep current (ollama/qwen3:8b)│  ○ Enter model manually│  ○ amazon-bedrock/anthropic.claude-3-haiku-20240307-v1:0│  ○ amazon-bedrock/anthropic.claude-3-5-haiku-20241022-v1:0...
此时,OpenClaw 已经成功连接到本地 Ollama 模型了。接下来的步骤按自己需求设置就可以了:
......◆  How do you want to hatch your bot?│  ○ Hatch in TUI (recommended)│  ● Open the Web UI│  ○ Do this later

六、开始使用 OpenClaw + Ollama

向导完成后,OpenClaw 会自动打开 Web UI。

此时你的机器人已经可以使用本地 Ollama 模型来运行了。如果想切换模型,可以:
ollama launch openclaw
也可以直接指定模型:
ollama launch openclaw --model qwen3:8b

七、常见问题

1. Ollama API 无法访问
确认 Ollama 服务正在运行:
ollama serve
再次测试
curl http://localhost:11434/api/tags
2. OpenClaw 检测不到 Ollama 模型

查看 Ollama 已安装模型:
ollama list
如果没有模型,可以下载一个,例如:
ollama pull qwen3:8b
然后连接:
ollama launch openclaw --model qwen3:8b
总结

整个流程如下:

1. 安装 OpenClaw 和 Ollama
2. 设置 Ollama API Key,让OpenClaw 连接到 Ollama
3. 启动 Ollama 服务
4. 运行检查 OpenClaw 的Ollama模型
5. 运行 OpenClaw 初始化向导


您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|『AI一起上』大模型应用开发社区 bbs.ai173.com

GMT+8, 2026-3-24 08:56 , Processed in 0.095366 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表