每月给ChatGPT、Claude续费的人,2024年 collectively 烧掉了多少钱?没人算过这笔账,但Google最近丢了个免费选项出来,让这笔账突然变得很刺眼。

Gemma 4来了。不是云端API,不是订阅服务,是完全本地化——你的笔记本、甚至手机就能跑。4B参数,离线可用,零月费。

从"租算力"到"买设备",AI付费逻辑变了

从"租算力"到"买设备",AI付费逻辑变了

过去两年,我们习惯了这套流程:输入prompt→数据飞加州→OpenAI的GPU集群狂转→结果传回来。每个月20刀,买的是远程算力的使用权。

Gemma 4的逻辑完全不同。模型下载到本地,推理在你自己的芯片上完成。图像分析、PDF解析、多语言处理、甚至思维链展示——这些功能不再需要联网。

开发者社区已经有人在M4 MacBook上跑通了完整工作流。延迟?比API调用还低。隐私?数据不出本机。成本?一次性硬件投入,后续为零。

免费不等于劣质,但"够用"正在重新定义

免费不等于劣质,但"够用"正在重新定义

Google官方没遮掩短板。Gemma 4在某些场景下的输出,确实不如ChatGPT-4o或Claude 3.5 Sonnet精致。长文本连贯性、创意写作、复杂代码生成——云端大模型仍有优势。

但"够用"的标准在迁移。如果你需要:一个离线可用的文档分析工具、一个无需API密钥的网页生成器、一个客户数据绝不外泄的客服机器人——Gemma 4已经能交货。

更关键的是迭代速度。开源模型的更新周期以周计算,而云服务的功能排期以月甚至季度为单位。本地部署的灵活性,正在积累成一种新的竞争力。

谁该紧张?不是OpenAI,是中间商

谁该紧张?不是OpenAI,是中间商

直接冲击的不是ChatGPT Plus的订阅用户。愿意为"最好"付费的人,短期内不会迁移。

危险的是那些基于API构建的SaaS层。某文档分析工具每月收你15刀,底层调的是GPT-4 API;某AI写作助手卖终身会员,实际成本是Claude的token消耗。Gemma 4让"自建替代方案"的门槛,从"需要机器学习团队"降到了"会跑Python脚本就行"。

企业客户的采购部门已经在重新评估预算。一个4B参数的本地模型,处理内部文档分类的准确率如果能到85%,为什么还要为云端方案的安全审计和合规流程额外付费?

Google没说的是:Gemma 4的真正目标,可能是把AI从"服务"变成"基础设施"——像Wi-Fi芯片一样,最终没人再单独为它付钱。

如果明年这时候,你的手机出厂预装了能跑本地大模型的NPU,而你还不知道自己在用——这是Google赢了,还是OpenAI输了?