我试过用本地大模型换掉所有云服务。Ollama 拉了几个模型,想着能彻底告别 ChatGPT 和 Claude 的订阅费,数据留在自己硬盘里,也不用看别人服务器脸色。几个月折腾下来,结论有点打击人:完全替代是个过于乐观的想法。

差距客观存在。让本地 AI 处理多步骤任务,或者解读一篇需要微妙语境把握的长文,它很快就会露馅。长对话的上下文记忆?基本不存在。写代码时,Claude 轻松搞定的事,我的 Qwen2.5-Coder 得来回"吵架"才能出能用的结果。我试过换模型、调 prompt、改参数,几周后承认一个事实:重活累活,本地模型确实干不过云端。

打开网易新闻 查看精彩图片

但换个思路,本地模型反而找到了位置。我现在把它用在真正适合的场景——轻量、私密、高频的任务。需要上强度的时候,再切回 Claude 或 ChatGPT。这种混合工作流,比我之前硬扛本地优先原则时舒服多了。

Claude Code 搭配离线本地模型的组合,是个意外发现。代码理解用云端,敏感操作或简单补全走本地,既保了效率又守住了数据边界。重点不是非此即彼,而是分清什么活该给谁干。

订阅费省没省下来?其实没省多少。但本地模型承担了大部分日常负载,我不用买更高 tier 的云服务了。这算是一种务实的胜利——让工具各归其位,而不是让一个工具硬扛所有。