AI编程助手正在变成一项固定开支。Claude Code每月20美元打底,API调用另算;OpenCode、Kilo同样如此。更隐蔽的成本是:你的每一行代码、每一次文件读取、每一个项目片段,都在流经别人的服务器。
miii-cli的出现,直接切断了这条付费链条。这是一个开源终端AI编程助手,基于本地模型运行。不需要API密钥,不依赖云端,没有订阅费。一行命令安装,终身免费使用。
核心逻辑很简单:把"终端原生"的工作流完整保留,但把所有计算搬到本地硬件上。通过Ollama接入开源模型,实现完全离线的智能编码体验。
它能做什么
miii的功能清单直接对标主流商业工具:
• 自主工具调用——模型可链式执行最多6轮操作,无需人工逐步确认,涵盖文件读取、编辑、命令执行
• @符号注入上下文——输入@后模糊搜索项目任意文件,即时拉取到对话中;node_modules、dist、.git、锁文件和二进制文件自动排除
• 会话持久化——对话记录保存在~/.config/miii/sessions/,重启终端后无缝续聊
• 自定义技能系统——在~/.config/miii/skills/目录放置Markdown或TypeScript文件,创建专属/命令
• 开放API兼容——支持Ollama、LM Studio、vLLM、Groq、Together及任何自托管OpenAI兼容端点
安装只需两步:npm install -g miii-cli,然后输入miii。前提是Ollama已在运行且已拉取模型。
它解决谁的问题
隐私优先型团队。医疗、金融、国防领域的开发者——代码绝不离开本机。不会发送到Anthropic、OpenAI或任何第三方,连元数据都不泄露。
成本敏感型开发者。对独立开发者或小团队而言,20美元月费叠加API开销是真实负担。Ollama免费,miii免费,唯一成本是电费。
模型实验者。想在同一代码库上对比Llama 3.3、Qwen2.5-Coder、Mistral?会话中执行/models即可切换,无需换工具、丢上下文。
气隙环境组织。因合规要求完全无法使用云端AI的场景,miii配合Ollama是目前唯一功能完整的零网络依赖编程CLI。
文件上下文系统如何工作
@符号是miii的核心交互设计。实际使用场景:
❯ review the auth logic in @src/auth/middleware.ts
❯ refactor @src/utils/parser.ts to handle edge cases
❯ does @src/models/user.ts match the schema in @db/migrations/001.sql
输入@触发模糊文件选择器,选中即注入上下文。模型获得完整读取权限后,可自主调用read_file、edit_file、run_command等工具,或开启显式确认门槛。
技能系统:自定义/命令
这是miii区别于其他工具的可扩展层。在~/.config/miii/skills/目录创建Markdown文件即可:
---
name: review
description: review current changes for bugs and improvements
---
Review the code I'm about to share. Look for bugs, edge cases, and improvements.
保存后,输入/review即可触发该技能。复杂逻辑可用TypeScript编写,实现从简单提示模板到完整工具链的任意扩展。
整个设计指向一个明确取舍:用本地硬件成本替换云服务订阅,用开源生态替换封闭API,用可审计的代码替换黑箱操作。对于已经把Ollama作为日常工具的人来说,miii填补了"终端智能"的最后一块拼图。
热门跟贴