
Google 又发新模型了。

但这次,重点可能不只是 " 模型更强了 ",而是 Google 终于开始认真回答一个更关键的问题:开发者为什么要在它的开放生态里构建下一代 AI 应用。 4 月 3 日,Google 发布 Gemma 4,官方把它定义为 " 迄今最智能的开放模型家族 ",主打 advanced reasoning、agentic workflows,以及从手机到工作站都能部署的本地运行能力。更关键的是,这一代 Gemma 4 改用了 Apache 2.0 许可。
这意味着,Gemma 4 不是一次普通的参数升级,而更像是 Google 对 " 开放模型 " 路线的一次重新表态。过去两年,Google 在闭源旗舰模型 Gemini 上一路猛冲,但在开放模型这条线里,Gemma 虽然一直有不错关注度,却总被开发者吐槽 " 模型能用,条款不好用 "。而这次,Google 明显想把这件事掰回来。
图:Google 官方博客展示的 Gemma 4 排行表现先看产品本身:Gemma 4 到底发了什么
官方这次一口气放出了 4 个型号:E2B、E4B、26B A4B 和 31B Dense。其中 E2B 和 E4B 面向更轻量的端侧和本地设备,26B A4B 是 Mixture-of-Experts 架构,31B Dense 则是这次家族里的高性能主力。Google 说,Gemma 自 2024 年首发以来累计下载已经超过 4 亿次,社区衍生版本超过 10 万个,这次 Gemma 4 则是在这个基础上继续往上抬一档。
从能力定义上看,Gemma 4 并不是只想做 " 更会聊天的小模型 "。官方给它的关键词是:推理、代码、工具调用、长上下文、多模态和 agent 工作流。Gemma 4 支持文本和图像输入,小尺寸的 E2B 和 E4B 还支持音频输入;上下文长度方面,小模型是 128K,26B A4B 和 31B 则上到 256K。Google 还特别强调它对 function calling、structured tool use、system instructions 的原生支持,明显是在朝 " 本地 agent 基础模型 " 这个方向设计。
如果只看参数,Gemma 4 也许不会给人那种 " 又一个超大模型 " 的压迫感,但 Google 这次讲得最多的其实是 intelligence-per-parameter。换句话说,它想卖的不是 " 我有多大 ",而是 " 我在这个体积下有多强 "。官方 benchmark 里,31B Dense 在 MMLU Pro 上达到 85.2%,AIME 2026 no tools 89.2%,LiveCodeBench v6 80.0%;26B A4B 也分别做到 82.6%、88.3%、77.1%。至少从 Google 自己公布的指标看,它确实想把 Gemma 4 放在 " 同尺寸开放模型里尽量打满性能 " 的位置。
这次真正的变化,不在参数,而在许可证
Google 官方明确写了,Gemma 4 是 Gemmaverse 里第一批采用 OSI 认可的 Apache 2.0 许可的模型。Google Open Source Blog 甚至专门发文解释:这一变化的目标是给开发者更清晰的修改、复用和再开发权利,让大家不用再面对一套 " 看起来开放,但法律上不够标准化 " 的专属条款。

为什么这件事重要?因为过去的 Gemma 条款,问题不在 " 不能用 ",而在 " 用起来心里没底 "。旧版 Gemma Terms 里,对 Model Derivatives 的定义非常宽,不只包括对 Gemma 的直接修改,还包括通过权重、参数、操作乃至 Gemma 输出迁移模式而构建出来、表现得 " 像 Gemma" 的模型,连基于 Gemma 生成的合成数据去训练别的模型,都可能被卷进去。对于很多公司法务和商业团队来说,这种定义天然会提高采用成本。
The Verge 对这件事的概括很直接:之前几代 Gemma 用的是定制许可,而且一直被批评过于 restrictive;Gemma 4 换成 Apache 2.0,才算真正进入开发者更熟悉、也更容易被企业流程接受的许可体系。Google 这次不是只把模型发出来,而是在补过去一直没补好的 " 最后一公里 " ——让开发者敢真用、敢商用、敢继续往下做衍生生态。
Google 想要的,也不只是 " 开放 ",而是 " 本地化 "
Google 这次在三个官方博客里反复强调同一件事:Gemma 4 是给本地跑、给设备跑、给 agent 跑的。 官方博客写得很清楚,Gemma 4 是 " 你可以跑在自己硬件上的最强模型家族 ";开发者博客则进一步把它包装成 on-device AI development 的工具箱,直接说有了 Gemma 4,开发者可以在本地设备上做 multi-step planning、autonomous action、offline code generation,甚至音视频处理。
26B A4B 总参数是 25.2B,但推理时实际只激活 3.8B 参数。Google 甚至在 model card 里直接解释:这就是为什么它会比名义上的 26B 看起来更 " 轻 ",推理速度也更接近一个 4B 级别模型。对于想在本地跑 agent、做工具调用、追求低延迟的开发者来说,这种设计比单纯把参数堆大更有现实意义。
Google 甚至已经把这条路延伸到了 Android。Android Developers Blog 写得非常明确:Gemma 4 是下一代 Gemini Nano 4 的基础模型,而后者会针对 Android 设备进一步优化,官方称其性能可达到上代的 4 倍,电池消耗最多降低 60%。同时,Google 还推出了 AICore Developer Preview,让开发者可以直接在支持的设备上预览和原型化 Gemma 4 E2B/E4B。Google 想把模型、系统、端侧硬件和开发工具重新打包成一整套自己的本地 AI 平台。
这不是 Gemini 的 " 平替 ",而是 Google 的生态补位
很多人看到 Gemma,会下意识把它理解成 "Gemini 的开源版 "。但从这次发布节奏看,Gemma 4 更像是 Google 在做另一件事:把 Gemini 体系里的研究和能力,拆成开发者能本地拿走、自己调、自己部署的一条产品线。 官方博客就写得很直白:Gemma 4 和 Gemini 是互补关系,前者给开发者开放模型和本地部署的空间,后者则继续作为 Google 的闭源旗舰能力存在。
过去一年多,真正把开发者生态卷起来的,不只是最大的闭源模型,而是那些能被拿去直接改、直接跑、直接集成进应用和 agent 框架的模型。Google 如果只守着 Gemini API,本质上只能拿到 " 调用层 " 的开发者;但 Gemma 4 这种更标准、更宽松的许可,加上对本地和端侧的强调,Google 才有机会把开发者重新吸回到自己的工具链里——从 Hugging Face、Kaggle、Ollama、vLLM、llama.cpp 到 Android AICore,再到最后的 Google Cloud 和 Vertex AI。
写在最后
Gemma 4 不只是一次模型迭代,更像是一场迟来的开放生态修正。它当然仍然不是那种 " 把训练数据、训练流程、完整 pipeline 全部公开 " 的彻底开源叙事,但在许可、部署范围和开发者友好度上,Google 的确向前迈了一大步。
Gemma 4 的关键,不是它是不是世界最强开放模型。更关键的是,Google 终于开始认真回答:为什么开发者要在 Google 的开放生态里,构建下一代 AI 应用。





