打开网易新闻 查看精彩图片

今天,我们正式推出Gemma 4——迄今为止最智能的开放模型。Gemma 4专为高级推理和智能体工作流而设计,在智能密度方面实现了前所未有的突破。自首代产品发布以来,开发者已下载Gemma超过4亿次,构建了超过10万个变体的活跃生态系统。我们深入了解创新者的需求,Gemma 4就是我们的答案:在Apache 2.0许可证下提供突破性能力。

基于与Gemini 3相同的世界级研究和技术构建,Gemma 4是您硬件上可运行的最强模型系列。它们与我们的Gemini模型相辅相成,为开发者提供业界最强大的开放和专有工具组合。

行业领先能力与移动优先AI

我们发布四种规格的Gemma 4:高效2B(E2B)、高效4B(E4B)、26B混合专家(MoE)和31B密集型。整个系列超越简单对话,能够处理复杂逻辑和智能体工作流。大型模型在同等规模中表现卓越,31B模型在业界标准Arena AI文本排行榜中排名全球开放模型第3位,26B模型位列第6。Gemma 4的表现超越了体积大20倍的模型。对开发者而言,这种新的智能密度意味着以更少的硬件开销实现前沿能力。

在边缘计算方面,E2B和E4B模型重新定义设备端实用性,优先考虑多模态能力、低延迟处理和无缝生态系统集成。

强大、易用、开放

为推动下一代开创性研究和产品,我们专门调整了Gemma 4模型规格,使其能在各种硬件上高效运行和微调——从全球数十亿Android设备到笔记本GPU,再到开发工作站和加速器。

通过使用这些高度优化的模型,您可以微调Gemma 4以在特定任务上实现顶尖性能。我们已经看到这种方法的巨大成功;例如,INSAIT创建了开创性的保加利亚语优先语言模型(BgGPT),我们与耶鲁大学合作开发Cell2Sentence-Scale以发现癌症治疗新途径等。

以下是Gemma 4成为我们最强开放模型系列的特色:

高级推理:具备多步骤规划和深度逻辑能力,Gemma 4在需要此类能力的数学和指令遵循基准测试中表现显著提升。

智能体工作流:原生支持函数调用、结构化JSON输出和原生系统指令,让您能构建可与不同工具和API交互并可靠执行工作流的自主智能体。

代码生成:Gemma 4支持高质量离线代码,将您的工作站变成本地优先的AI代码助手。

视觉和音频:所有模型都原生处理视频和图像,支持可变分辨率,在OCR和图表理解等视觉任务中表现出色。此外,E2B和E4B模型具备原生音频输入功能,用于语音识别和理解。

更长上下文:无缝处理长篇内容。边缘模型具有128K上下文窗口,大型模型可达256K,让您能在单个提示中传递代码库或长文档。

140多种语言:在超过140种语言上原生训练,Gemma 4帮助开发者为全球受众构建包容性高性能应用。

适配多样化硬件的通用模型

我们发布的Gemma 4模型权重针对特定硬件和用例定制,确保您在任何需要的地方都能获得前沿推理能力。

为研究人员和开发者提供在可及硬件上的顶尖推理能力,我们的未量化bfloat16权重可高效适配单个80GB NVIDIA H100 GPU。对于本地设置,量化版本可在消费级GPU上原生运行,为IDE、编程助手和智能体工作流提供支持。26B混合专家(MoE)专注延迟优化,推理时仅激活总参数中的38亿个,实现极快的每秒Token数,而31B密集型最大化原始质量,为微调提供强大基础。

从头设计以实现最大计算和内存效率,这些模型在推理时激活有效的20亿和40亿参数占用,以保持RAM和电池续航。通过与Google Pixel团队以及高通科技和联发科等移动硬件领导者的密切合作,这些多模态模型可在手机、树莓派、NVIDIA Jetson Orin Nano等边缘设备上完全离线运行,延迟接近零。Android开发者现在可以在AICore开发者预览版中构建智能体流程原型,与Gemini Nano 4向前兼容。

开源许可证

您提供了反馈,我们倾听了。构建AI未来需要协作方式,我们相信在没有限制性障碍的情况下赋能开发者生态系统。因此,Gemma 4在商业友好的Apache 2.0许可证下发布。

这个开源许可证为完整的开发者灵活性和数字主权提供基础;让您完全控制数据、基础设施和模型。它允许您自由构建并在任何环境中安全部署,无论是本地部署还是云端。

建立在信任与安全基础上

这些模型经历了与我们专有模型相同的严格基础设施安全协议。选择Gemma 4,企业和主权组织获得可信、透明的基础,在满足最高安全性和可靠性标准的同时提供顶尖能力。

选择生态系统

立即开始实验:立即访问Gemma 4并开始构建。在Google AI Studio(31B和26B MoE)或Google AI Edge Gallery(E4B和E2B)中探索Gemma 4。对于Android开发,使用它在Android Studio中为智能体模式提供支持,并使用ML Kit GenAI Prompt API开始为Android构建生产应用。

使用您喜爱的工具:首日支持Hugging Face(Transformers、TRL、Transformers.js、Candle)、LiteRT-LM、vLLM、llama.cpp、MLX、Ollama、NVIDIA NIM和NeMo、LM Studio、Unsloth、SGLang、Cactus、Basetan、Docker、MaxText、Tunix、Keras,您可以灵活选择最适合项目的工具。

下载模型:从Hugging Face、Kaggle或Ollama获取模型权重。

定制Gemma 4以满足特定需求:使用您偏好的平台(如Google Colab、Vertex AI或游戏GPU)训练和调整模型。

在Google Cloud上扩展到生产:虽然本地设备端推理适合离线使用,Google Cloud消除了所有计算限制。通过Vertex AI、Cloud Run、GKE、主权云、TPU加速服务和受监管工作负载的最高合规保证进行部署。

在多个硬件平台上加速AI开发:Gemma 4针对业界领先硬件开箱即用优化。在从NVIDIA Jetson Orin Nano到Blackwell GPU的NVIDIA AI基础设施上体验最大性能,通过开源ROCm(TM)堆栈与AMD GPU集成,或在Trillium和Ironwood TPU上部署以实现大规模和效率。

参与影响力竞赛:加入Kaggle上的Gemma 4 Good挑战赛,构建在世界上创造有意义积极变化的产品。

Q&A

Q1:Gemma 4有哪些不同规格的模型?

A:Gemma 4发布四种规格:高效2B(E2B)、高效4B(E4B)、26B混合专家(MoE)和31B密集型。E2B和E4B专为边缘设备优化,支持多模态和音频输入;26B MoE专注延迟优化,推理时仅激活38亿参数;31B密集型追求最高质量,适合微调。

Q2:Gemma 4相比其他开放模型性能如何?

A:Gemma 4在性能上表现卓越,31B模型在Arena AI文本排行榜中排名全球开放模型第3位,26B模型位列第6。更重要的是,Gemma 4的表现超越了体积大20倍的模型,在智能密度方面实现了突破,让开发者能以更少硬件开销获得前沿能力。

Q3:如何开始使用Gemma 4?

A:您可以通过多种方式开始使用:在Google AI Studio或Google AI Edge Gallery中直接体验,从Hugging Face、Kaggle或Ollama下载模型权重,使用Google Colab或Vertex AI进行定制训练。Gemma 4支持140多种语言,提供128K-256K上下文窗口,并在Apache 2.0许可证下开源。