打开网易新闻 查看精彩图片

2024年,一家AI公司处理用户查询的平均成本是0.01美元。听起来不多?乘以十亿次请求,就是一笔好生意。代价是你的病历、合同、情书,统统变成训练饲料。

Arkhein的开发者算了一笔反账:如果推理发生在你的Mac里,API成本归零,数据主权归零,唯一消耗的是你自己买的M3芯片。

这个算盘打得狠,但有个前提——本地AI不能是玩具。

「主权隔离」:你的病历和合同永不相见

「主权隔离」:你的病历和合同永不相见

大多数RAG(检索增强生成)系统把文档扔进同一个向量池,像把所有文件倒进一个抽屉。Arkhein造了四个抽屉,上锁的那种。

它的知识架构叫Sovereign Silos(主权隔离仓),物理层级是:Silo(文件夹)→ Vessel(文档)→ Fragment(片段)。查询Project A时,系统先读文件夹摘要和子目录深度,再碰具体片段。

结果是100%主题隔离。医疗研究不会污染客户合同, side project的草稿不会出现在工作汇报的引用里。你授权哪个文件夹,它就碰哪个;Mac里其他东西,对它来说不存在。

这个设计直接回应了本地AI的脏数据问题。云端服务靠海量清洗过的语料训练,个人用户没这个条件。Arkhein的解法是:不混合,就不污染。

打开网易新闻 查看精彩图片

「仲裁者」流水线:先想后做,不是复读机

「仲裁者」流水线:先想后做,不是复读机

Ollama负责跑模型,但Arkhein不止于「提问-回答」。它套了一层Multi-Stage Sovereign Arbiter(多阶段主权仲裁者),JSON格式的推理引擎。

流程是:Dispatcher模块先分类——这是要检索、要综合、要操作文件,还是纯生成?分类完才触发下一步。换句话说,它有个「先想想」的环节。

文件操作更谨慎。/create、/move、/organize、/delete这些命令需要生成Verified Strategic Plan(经验证的战略计划),用户明确批准才执行。没有「手滑删库」的借口。

硬件适配做了两档:Economy模式用7B参数模型,Pro模式上70B。M1用户和M3 Max用户各取所需,帧率换智商,或者反过来。

零停机记忆:向量库崩了,数据还在

零停机记忆:向量库崩了,数据还在

本地AI的隐藏风险是单点故障。Arkhein的记忆层拆成两块:Vektor管向量搜索,Archive管原始文档。重建索引时,Archive保持可读,查询不中断。

这个设计来自一个朴素观察:个人用户的文档比企业少三个数量级,但丢失容忍度是零。云服务商可以丢你一份备份,你不能丢自己的毕业论文。

打开网易新闻 查看精彩图片

语言处理倒是省事。输入英文、意大利语、法语,系统自动跟跑,零配置。这对非英语开发者是刚需——不是每个人都想为了用AI先写prompt工程。

开源MIT:代码全裸,但责任也全裸

开源MIT:代码全裸,但责任也全裸

Arkhein的GitHub仓库是完整的:NativePHP + Laravel + Vue 3 + TypeScript。没有「开源核心,闭源增值」的套路,也没有「社区版功能受限」的阉割。

但MIT许可证意味着开发者不背锅。模型幻觉、文件误删、隐私泄露——这些风险从云服务商的资产负债表,转移到了你的Mac和你的判断力上。

这是本地优先的终极悖论:自由和控制是同一枚硬币的两面。你拥有了数据主权,也拥有了全部责任。

Arkhein Alpha v0.0.4的发布帖下面,最高赞评论是:「终于不用在ChatGPT的输入框里犹豫要不要粘贴公司代码了。」

另一条评论问:「如果本地模型被提示注入攻击,谁来负责?」

这个问题,Arkhein的README没有回答。也许答案本身就是产品的一部分——当你选择「零云智能」,你也选择了独自面对所有后果。这种交易,你愿意签吗?