打开网易新闻 查看精彩图片

去年12月,Google把Gemini 3 Pro端上桌时,业内还在算这笔账:闭源路线的天花板又往上抬了一截,开源社区什么时候能喝上汤?三个月后,Google把汤锅直接搬过来了——Gemma 4家族四款模型全量开源,从手机芯片到工作站显卡,全覆盖。

这不是常规的"技术下放"。Gemma 4的31B(310亿参数)和26B版本,在Arena AI文本排行榜上分别冲到第3和第6,把参数规模20倍于它们的模型甩在身后。Google的工程师把这叫做"单位参数智能密度"的突破——翻译成人话:瘦子打赢了胖子。

四张牌,打的是不同桌

四张牌,打的是不同桌

Gemma 4的四款型号分工明确。2B和4B叫"Effective",面向手机、IoT设备这些边缘场景;26B是混合专家架构(MoE),31B是密集架构(Dense),留给有足够算力的玩家。

参数规模的差异直接决定落地姿势。2B和4B能跑在骁龙8 Gen 3级别的芯片上,本地处理图像、视频、音频输入,甚至支持离线语音识别。26B和31B则需要独立显卡或云端实例,但换来的能力也跃升一档——长文本理解、复杂推理、多轮对话的稳定性。

一个容易被忽略的细节:Google这次把语言支持拉到140种以上。之前的开源模型往往优先英语、中文、西班牙语,小语种用户基本被排除在AI应用之外。Gemma 4的训练数据覆盖策略,相当于给全球另外几十亿潜在用户发了入场券。

开源许可证换血:从"Google说了算"到"你说了算"

开源许可证换血:从"Google说了算"到"你说了算"

前代Gemma模型用的是Google自家拟定的许可证,条款里埋了不少限制——商用场景要审批,修改后分发要标注,某些敏感领域直接禁止。Gemma 4改投Apache 2.0,这是开源世界最宽松的许可证之一。

「这份开源许可证为完全的开发者灵活性和数字主权奠定基础;赋予你对数据、基础设施和模型的完全控制权。」Google在公告里写道,「它允许你在任何环境中自由构建、安全部署,无论是本地还是云端。」

措辞很官方,但潜台词清晰:Google在开源赛道上换了打法。Meta的Llama系列靠相对开放的策略收割了开发者生态,Mistral、DeepSeek等后起之秀更是把"真正开源"当卖点。Google不能再端着架子了。

模型权重已上架Hugging Face、Kaggle、Ollama。开发者现在就能下载,微调,部署,不用等Google的审批邮件。

"智能密度"是怎么算出来的?

"智能密度"是怎么算出来的?

Google反复强调的"unprecedented intelligence-per-parameter",本质上是一场工程优化竞赛。大模型领域有个默认假设:参数越多,能力越强。但这个等式的分母是推理成本——每多10亿参数,显存占用、能耗、延迟都在涨。

Gemma 4的解法是从训练数据和架构设计两头挤水分。Gemini 3 Pro的研发过程中,Google积累了一套筛选高质量数据的方法论,现在移植到Gemma 4上。同样的参数量,喂进去的信息密度更高。MoE架构则让26B版本在推理时只激活部分参数,实际计算量远低于名义规模。

Arena AI的排行榜是盲测机制,人类评委不知道背后是哪款模型,仅凭对话质量打分。Gemma 4 31B能挤进前三,说明它的"感知智能"已经逼近GPT-4o、Gemini 2.5 Pro这些闭源旗舰——而部署成本可能只有后者的几十分之一。

这对企业客户是实打实的诱惑。一家中型SaaS公司如果要接入大模型能力, previously 只能在API调用费和自研成本之间二选一。现在有了第三条路:拿Gemma 4 31B做基座,用自己的数据微调,跑在租来的A100集群上,长期成本可能低于持续调用闭源API。

离线编程:一个被低估的场景

离线编程:一个被低估的场景

Google在公告里轻描淡写提了一句:Gemma 4支持"offline code generation", vibe coding不需要联网。这句话值得拆开看。

"Vibe coding"是AI编程的新范式——开发者用自然语言描述需求,模型生成代码,人再迭代调优。之前的痛点是,主流工具(GitHub Copilot、Cursor等)都依赖云端模型,代码片段要上传到公司服务器。对金融、医疗、国防这些敏感行业,这是红线。

Gemma 4的离线能力意味着,开发者可以在完全隔离的环境中完成代码生成。代码不出内网,模型权重本地加载,审计日志自己掌控。这对有合规压力的企业不是"锦上添花",是"准入门槛"。

Google显然瞄准了这个缺口。公告里特意强调Apache 2.0许可证允许"在任何环境中部署",包括on-premises——本地机房。这是说给谁听的,不言而喻。

开源模型的竞争正在从"参数军备赛"转向"场景精准打击"。Meta用Llama收割了研究和初创社区,DeepSeek用极致性价比震动业界,Google现在押注的是"企业级合规+端侧部署"的组合拳。四款型号覆盖的粒度,比竞争对手更细。

但真正的考验在发布后几周。开发者社区会测试Gemma 4的实际推理效率、微调稳定性、长上下文的真实表现。排行榜分数是实验室环境,生产环境的脏数据、边缘案例、用户刁钻提问,才是试金石。

Google把Gemini 3 Pro的技术资产注入开源社区,这笔账怎么算都不亏——既抢占了生态位,又为闭源高端线做了品牌背书。但问题是,当31B开源模型已经够用,企业还有多少动力为Gemini 2.5 Pro的API付费?