就在刚刚,苹果正式确认和 Google 达成多年期 AI 合作

每年 10 亿美元,拿到一个 1.2 万亿参数的定制版 Gemini,共 Siri 使用

这个模型比苹果现有的云端模型大 8 倍

苹果向 CNBC 提供的声明里说:

经过仔细评估,我们确定 Google 的技术为 Apple Foundation Models 提供了最强大的基础

翻译一下:我们试了,自己搞不定

打开网易新闻 查看精彩图片

https://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html Anthropic 要价太狠

Bloomberg 的 Mark Gurman 爆料,苹果在做决定前评估了三家:GoogleOpenAIAnthropic

Anthropic 的 Claude 在测试中表现最好,但要价超过 15 亿美元/年
苹果觉得太贵,pass 了

Google 能拿下这单,一方面是价格更合适,另一方面是老交情
Google 每年给苹果付大概 200 亿美元,让 Google 搜索当 Safari 的默认引擎
现在苹果反过来每年给 Google 付 10 亿,买 AI 能力

这关系....挺微妙的

Gemini 怎么用:用户看不到任何 Google 标识

和之前的 ChatGPT 集成完全不同
Gemini 是 Siri 的隐形引擎

用户在使用过程中看不到任何 Google 品牌,所有功能都以 Apple Intelligence 和 Siri 的名义呈现

技术架构上,新版 Siri 有三个核心组件:

查询规划器
由 Gemini 驱动,负责理解复杂请求,决定怎么执行

知识搜索系统
本地和云端结合,处理信息检索

摘要生成器
也是 Gemini 驱动,生成最终回复

Gemini 跑在苹果自己的 Private Cloud Compute 服务器上,Google 碰不到用户数据

苹果用的是基于 Gemini 3 Pro 的定制版本,MoE 架构,1.2 万亿参数

苹果自研的云端模型只有 150B 参数左右,差了一个数量级

和 ChatGPT 什么区别

苹果现在同时和 OpenAI、Google 合作,但方式不一样

ChatGPT

Gemini

品牌

用户明确知道在用 ChatGPT

完全隐藏,以 Siri 名义呈现

角色

可选的外挂式扩展

Siri 核心架构的底层引擎

授权

每次用都要用户确认

后台自动运行

数据

跑在 OpenAI 服务器

跑在苹果服务器

简单来说:ChatGPT 需要用户主动调用,Gemini 是 Siri 的背后

苹果软件副总裁 Craig Federighi 在内部备忘录里说:

在这场 AI 马拉松中,我们不必自己发明每一项技术,但必须确保为用户提供最佳体验
时间线

时间

事件

2024 年 3 月

Bloomberg 首次报道苹果和 Google 洽谈

2024 年 6 月

WWDC 发布 Apple Intelligence 和 ChatGPT 集成

2025 年 3 月

苹果宣布推迟「更智能的 Siri」至 2026 年

2025 年 11 月

Bloomberg 披露 10 亿美元交易细节

2026 年 1 月 12 日

苹果正式官宣

预计 2026 年春

新版 Siri 随 iOS 26.4 发布

从首次传闻到正式落地,差不多两年

苹果的算盘

多位分析师的判断是:10 亿美元买来的喘息机会

苹果内部测试显示,自研模型在复杂对话、上下文理解、创意任务上明显落后

人才流失也很严重,AI 团队首席架构师已经跳槽 Meta,拿了 2 亿美元薪酬

但苹果没把 Gemini 当长期方案

公司正在加速开发自己的万亿参数云端模型,目标是条件成熟后替换 Gemini

最早可能 2026 年底准备好

所以这笔交易的本质:用 10 亿美元买 2 到 3 年时间,等自己的模型追上来

对 Google 来说,进入苹果生态的长期位置比 10 亿美元技术使用费更有价值

如果 Gemini 能同时覆盖安卓和 iOS 两大生态的数十亿用户,和 ChatGPT 的差距会迅速缩小

两边都有自己的算盘