凌晨的发布会,谷歌CEO桑达尔·皮查伊挥舞着“性能提升3倍,价格直降4倍”的武器,向整个AI行业扔下了一颗定价核弹。

打开网易新闻 查看精彩图片

北京时间凌晨,当大多数人还在沉睡时,一场可能改写AI行业格局的发布会悄然进行。谷歌CEO桑达尔·皮查伊高调宣布推出Gemini 3 Flash,这款新模型不仅在博士级推理测试中斩获90.4%的高分。

更以Pro级智能跑出Flash级延迟,价格却直降4倍

01 逆袭时刻

打开网易新闻 查看精彩图片

凌晨的发布会没有华丽的舞台,但谷歌抛出的数据足够震撼。就在旗舰模型Gemini 3 Pro发布仅一个月、竞争对手GPT-5.2发布仅仅5天后,谷歌闪电般推出这款被称为“行业杀手”的产品。

谷歌DeepMind负责人杰夫·迪恩在台上略显激动:“我们突破了性能和效率的帕累托极限”。这句话背后是一组让行业咋舌的数据:性能超越2.5 Pro,速度提升3倍,价格却低得多。

对AI行业而言,这不仅仅是产品迭代,更像是一次定价革命。当智能变得廉价,整个行业的游戏规则正在被重写。

02 性能屠榜

打开网易新闻 查看精彩图片

博士级推理(GPQA Diamond)90.4%的准确率,多模态理解(MMMU Pro)81.2%的成绩,编码智能体测试甚至超越了自家刚刚发布的Gemini 3 Pro。

这些冷冰冰的数据背后,是谷歌对AI模型架构的重新思考。Gemini 3 Flash保留了Pro级的推理能力,却通过技术创新实现了Flash级的响应速度。

独立测评机构Artificial Analysis的测试更加直观:Gemini 3 Flash的原始吞吐量达到每秒218个输出Token,而OpenAI GPT-5.1 high仅为125 Token/秒。

更令人意外的是,在AA-Omniscience知识基准测试中,这款模型的知识准确率达到了目前所有测试模型的巅峰。

03 技术突破

“思考程度”调节——这是Gemini 3 Flash的核心创新。开发者可以在“低”和“高”之间自由切换,实现可变速度的应用程序,这解决了AI应用长期面临的“速度与智商不可兼得”的困境。

谷歌还引入了上下文缓存技术,处理海量静态数据集时,重复查询的成本可直接降低90%。这意味着处理法律文档、大型代码库等任务时,企业能够节省大量成本。

DeepMind研究科学家阿里·伊斯拉米透露:“距Pro版发布仅29天,Flash版同样智能,价格却便宜4倍,速度快得多!”这种迭代速度本身,就是给竞争对手的警告。

04 应用落地

法律AI平台Harvey应用研究负责人尼科·格鲁彭表示,在内部测试中,Gemini 3 Flash的推理能力较前代提升了7%。这对于从海量合同中提取条款等高吞吐量法律任务具有革命性影响。

在游戏开发领域,Astrocade联合创始人阿里·萨德吉安兴奋地分享:“该模型的速度使我们能通过单次提示生成完整的游戏关卡计划。”

对于普通用户而言,这意味着更快的响应、更低的成本和更智能的体验。Gemini 3 Flash已作为搜索AI模式和Gemini App的默认模型向全球数百万用户推出。

05 行业震撼

社交媒体上,开发者们的反应几乎是一边倒的惊叹。网友@omarsar0感叹:“这可不是什么小打小闹的升级,而是一个‘要啥有啥’的六边形战士。”

Hyperbolic联合创始人Yuchen Jin从宏观视角评价:“这种‘更小、更快、更强’的趋势标志着技术迭代的节奏正在急剧加快。强大的设备端AI已触手可及。”

但硬币也有另一面。有网友指出Gemini 3 Flash在基准测试中的幻觉率仍有提升空间,平均有效性数据也暗示着它不是完美无缺。

然而,正如Warp创始人扎克·劳埃德所言:“对于需要‘低延迟和成本效率’的功能,Gemini 3 Flash依然是无可争议的最佳选择。”

JetBrains的丹尼斯·希里亚耶夫评价道,新模型让复杂的多步骤智能体在生产环境中变得快速且可预测

社交媒体上一位网友的评论引人深思:“这不是升级,是重塑。” Gemini 3 Flash的发布恰逢2025年末,对开发者而言是一份厚重的圣诞礼物,对竞争对手却是2026年行业大洗牌的明确信号。

当潮水退去,谁会留在沙滩上?