去年有组数据挺有意思:企业级AI工具的平均订阅费涨了34%,但用户实际调用量只涨了12%。钱越交越多,活越干越碎——这大概是很多科技从业者过去两年的体感。
云服务的悖论在于,它承诺了无限算力,却附赠了无限依赖。网络波动、隐私顾虑、按token计费的焦虑,像后台常驻进程一样消耗注意力。我开始找一种更"离线友好"的方案:AI能跑在本地,数据不出设备,功能不缩水。
折腾三个月后,我用Ollama(开源本地大模型运行框架)串起了一套工作流。四个工具,零订阅费,断网也能跑。这篇是完整复盘。
Logseq:笔记软件的"外挂大脑"模式
我的笔记体系经历过三次迁徙:Notion → Obsidian → Logseq。最后停在Logseq,不是因为功能最全,而是它的"块级大纲"结构最贴合思考方式。
传统文档像Word,你得先想清结构再下笔。Logseq把内容拆成可拖拽的 bullet,每个想法独立成块,又能双向链接。写一半卡壳?新建个块继续,回头再串起来。这种"先堆料、再整理"的流式写作,和大脑的发散模式更匹配。
但纯手动整理有个瓶颈:笔记攒到几千条后,检索和串联成了体力活。我试过用ChatGPT帮忙,但把私人笔记上传到云端,总有种把日记本交给图书馆管理员的不安。
Ollama的解法很直接:本地跑模型,插件对接Logseq。安装流程比想象中顺滑——在Logseq插件市场搜"ollama-logseq",下载后选模型(我用的Llama 3.1 8B,M2 Mac上跑得动),完事。
实际用下来,三个场景最顺手:
一是长文摘要。收到几十页的PDF报告,拖进Logseq,选中全文让模型提炼核心论点。二是碎片扩展。随手记的"用户反馈:加载慢",选中后扩写成结构化的bug描述。三是角度发散。写产品分析卡壳时,让模型基于已有笔记生成"反方观点"或"边缘案例"。
关键是"上下文感知"。模型能读取当前页面的其他块,生成的内容不是通用套话,而是基于你真实笔记的延伸。这种"助手读过你的档案"的默契,云端AI很难复制——除非你把全部笔记传上去。
隐私是副产品,也是主菜。我的项目规划、未公开数据、甚至一些灰色地带的行业观察,现在可以毫无负担地丢给AI处理。没有API调用记录,没有训练数据争议,断网时照样工作。
Home Assistant:智能家居的"去云化"实验
智能家居是个典型的"云依赖陷阱"。灯控用米家,空调用格力+,门锁用Aqara——每个品牌一个App,每个App一份隐私协议。更隐蔽的问题是:自动化规则写死在云端,服务器抽风时,你家比毛坯房还难用。
我三年前切到Home Assistant(开源智能家居平台),把所有设备接进本地网络。稳定性提升明显,但"智能"程度有限:自动化基于固定条件,比如"晚8点后检测到人开灯"。想更灵活?比如"根据我今天的日程和天气,判断要不要提前开空调"——这种需要理解语境的需求,传统规则引擎搞不定。
Ollama的接入改变了游戏规则。Home Assistant的社区插件支持直接调用本地模型,我把几个高频场景做了改造:
自然语言触发。以前设自动化要填一堆条件:时间、设备状态、传感器数值。现在可以直接写"我今晚有会,提前把书房调到舒适温度",模型解析意图后拆成具体指令。准确率大概85%,错的时候手动纠正一次,下次就记住了。
通知摘要。家里有十几个传感器,门磁、人体、温湿度……以前手机弹窗轰炸,现在让模型把相关事件聚合成一句话:"下午3点到5点,书房有人活动,温度从24升到26度,空调已自动开启。"
模式学习。最实用的是这个。我让模型分析过去30天的自动化日志,找出我自己都没意识到的规律。比如它发现我周末上午10点前从不开书房灯,但工作日9点前必开——于是自动拆成两套场景,比我自己写的规则更细。
本地运行的代价是响应延迟。云端助手500毫秒内必回,本地模型在M2上大概2-3秒。但换来了两件事:一是断网时全屋自动化照常运转,二是我的作息数据不会变成某家公司的训练燃料。
工具3和4:编码与浏览的"隐形补丁"
剩下两个工具的角色更轻,但使用频率极高。
Continue.dev(VS Code插件)把Ollama接进了IDE。写代码时的自动补全、选中函数的文档生成、甚至"这段逻辑有没有更简洁的写法"——全部本地完成。和GitHub Copilot比,建议质量差一档,但响应快、无订阅、代码不离开本机。适合对隐私敏感的项目,或者想省掉每月10美元的场景。
第二个是浏览器端的Page Assist扩展。选中网页任意文本,右键唤出侧边栏,用本地模型做摘要、翻译、或针对性提问。读英文技术文档时,它比全文翻译工具更省流:只解释我划选的术语,而不是把整个页面重排一遍。
这两个工具的共同点:它们不试图替代原有工作流,而是作为"增强层"嵌入。不需要迁移数据,没有学习成本,装完即用,卸载无残留。
这套方案的边界在哪
诚实地说,本地AI不是万能解。
模型能力有天花板。Llama 3.1 8B在代码生成、多轮推理、长文本理解上,明显弱于GPT-4或Claude 3.5。复杂任务——比如让AI读一份50页的法律合同,指出潜在风险——本地模型会漏掉关键细节,或者给出过于保守的结论。
硬件门槛客观存在。我用的M2 MacBook Pro 16G内存,跑8B模型流畅,13B就明显卡顿。Windows用户需要一块像样的显卡,或者接受CPU推理的龟速。纯文字工作能忍,涉及图像或语音就吃力了。
最隐蔽的成本是"折腾时间"。Ollama本身很稳,但插件生态参差不齐。Logseq的Ollama插件去年有两个月没更新,兼容性问题得自己改配置。这种"开源税"适合愿意动手的人,追求开箱即用的还是云端省心。
我的折中策略是"分层使用":敏感内容、高频轻量任务走本地;复杂分析、需要最新知识的任务临时切到云端。Ollama和OpenAI的API可以共存,不是非此即彼。
三个月跑下来,这套工作流最意外的收获不是省了多少钱,而是"注意力回流"。以前用云端AI时,每次粘贴内容都有微妙的迟疑:这段能传吗?会不会被训练?现在这种后台进程彻底关闭了。AI变回了工具本身,而不是一个需要持续评估风险的第三方服务。
有个细节挺能说明问题。上周出差,酒店WiFi烂到连邮件都发不出去。晚上回房间,Logseq里的本地模型照样帮我整理了当天笔记,Home Assistant按惯例调好了睡眠模式。那种"系统在我控制范围内正常运转"的踏实感,大概是这套方案最难以量化的价值。
你现在的核心工作流里,有没有哪个环节是"被迫上云"的?如果有个本地替代方案,性能打七折但隐私和可控性拉满,你会愿意切过去吗?
热门跟贴