OpenClaw 3.12 重大升级:Ollama 正式插件化,告别复杂 JSON 手动改配置,全程向导式交互,5 分钟搞定本地模型接入 。

一、准备工作

- 已安装 Ollama 并下载好模型(如 glm-4.7-flash、qwen3-coder)

- 更新到 OpenClaw 2026.3.12 或以上

二、4 步极速配置(直接照做)

1. 启用 Ollama 插件

bash

openclaw plugins enable ollama

2. 重启网关

bash

openclaw gateway restart

3. 进入可视化配置向导

bash

openclaw configure

按提示选择:

- Where will the Gateway run? → Local

- Select sections to configure → Model

- Model/auth provider → Ollama

4. 关键设置

- Ollama base URL: http://127.0.0.1:11434

- Ollama mode:Local(纯本地)

- 从本地已下载模型中选择你要用的(如 glm-4.7-flash、qwen3-coder)

- 一路 Continue 保存配置

5. 最后重启网关生效

bash

openclaw gateway restart

三、搞定!

现在 OpenClaw 已完全本地化:

✅ 不走云端、不上传代码

✅ 0 Token 费用、隐私安全

✅ 可读文件、改代码、执行命令

✅ 支持所有本地 Ollama 模型

四、本次升级核心亮点

- Ollama 从“兼容”升级为一等公民

- 配置从“改 JSON”变成可视化向导

- 自动识别本地模型,无需手动填写参数

- 纯本地模式,彻底断网也能用

打开网易新闻 查看精彩图片