OpenClaw 3.12 重大升级:Ollama 正式插件化,告别复杂 JSON 手动改配置,全程向导式交互,5 分钟搞定本地模型接入 。
一、准备工作
- 已安装 Ollama 并下载好模型(如 glm-4.7-flash、qwen3-coder)
- 更新到 OpenClaw 2026.3.12 或以上
二、4 步极速配置(直接照做)
1. 启用 Ollama 插件
bash
openclaw plugins enable ollama
2. 重启网关
openclaw gateway restart
3. 进入可视化配置向导
bash
openclaw configure
按提示选择:
- Where will the Gateway run? → Local
- Select sections to configure → Model
- Model/auth provider → Ollama
4. 关键设置
- Ollama base URL: http://127.0.0.1:11434
- Ollama mode:Local(纯本地)
- 从本地已下载模型中选择你要用的(如 glm-4.7-flash、qwen3-coder)
- 一路 Continue 保存配置
5. 最后重启网关生效
bash
openclaw gateway restart
三、搞定!
现在 OpenClaw 已完全本地化:
✅ 不走云端、不上传代码
✅ 0 Token 费用、隐私安全
✅ 可读文件、改代码、执行命令
✅ 支持所有本地 Ollama 模型
四、本次升级核心亮点
- Ollama 从“兼容”升级为一等公民
- 配置从“改 JSON”变成可视化向导
- 自动识别本地模型,无需手动填写参数
- 纯本地模式,彻底断网也能用
打开网易新闻 查看精彩图片
热门跟贴