苹果的 AI 路线,最近被彭博记者 Mark Gurman 揭了个底朝天。

一句话概括:短期靠谷歌续命,长期要自造“巨兽级”模型。

更刺激的是——苹果给谷歌 Gemini 的定制模型起了个假名,叫 AFM v10,从内部到外部都尽量不让人知道 Siri 背后用了“对家”的技术。

这背后的盘算,很苹果,也很现实。

打开网易新闻 查看精彩图片

苹果现在的 Apple Intelligence 云端模型,大概 1500 亿参数,放在业内不算小,但离顶级差一大截。

谷歌给它定制的 Gemini 版本参数大概 1.2 万亿,体型直接膨胀八倍,而且苹果每年要为这种“外援式增强”付出 10 亿美元,折合人民币约 71 亿。

这不算便宜,但对苹果来说,是“花钱换时间”。

因为 Siri 的体验已经拖太久。

iOS 18 吊足了用户胃口,可实际落地时,很多能力都要“看云端模型心情”。

为了不让新版 Siri 继续掉链子,苹果选择暂时用 Gemini 当背后大脑,让 Siri 能先动起来,再考虑怎么把大脑换成自家货。

打开网易新闻 查看精彩图片

问题来了:苹果明明这么强调隐私、强调自研,为何在这么核心的地方用谷歌?

原因也很简单:工程压力太大。

训练千亿级模型不只是堆机器这么,要数据、要人才、要长期调优、要算力集群。

苹果过去十年押注的重点是芯片和端侧 AI,真正的大规模云端模型积累并不深厚。哪怕现在重金投入,也不可能在几个月内突然超过谷歌、OpenAI 这种“模型工厂”。

更有意思的是,苹果内部现在还在经历人才流失。一些关键 AI 研究人员在过去几个月陆续离开,这让苹果自研模型的进度更紧张。

但苹果的长期目标没有变:摆脱外部依赖。

打开网易新闻 查看精彩图片

Gurman 的原话是:苹果计划最早明年推出一个 1.0 万亿参数 的自研 Apple Intelligence 模型。

这规模就很硬核了——至少说明苹果不准备长期给谷歌交“保护费”。

但现实依旧残酷。即便苹果明年真的做出 1 万亿参数模型,它也赶不上明年春季新版 Siri 的上线进度。等于说:短期 Siri 的提升依然要靠谷歌;长期才能真正换心脏。

这让苹果陷入一个很微妙的位置:

它既要维护自己的隐私叙事,又要保证体验赶得上同行,还要暗中压住“我们用了谷歌模型”的消息,以免品牌受冲击。

打开网易新闻 查看精彩图片

毕竟,消费者会问一句:那我买这么贵的苹果设备,是不是买了个谷歌大脑?

对行业来说,这事比“苹果用谷歌模型”更值得关注的是另一点:苹果愿意为了体验,放下身段、付出巨额成本,并且走上多轨并行的路线。

这很罕见,也意味着它终于把 AI 放进真正的战略核心。

短期看,普通用户最直接的收益就是:Siri 的理解力、响应力、生成质量,有机会在 iOS 18 后续版本中明显进步。

中期看,如果苹果自研模型能落地,生态开发者可能获得更强的 API 能力,比如更深度的个性化、更低延迟、更高隐私级别的本地推理。

长期看,这是苹果能不能在下一代计算平台中站稳脚跟的关键战役。

但风险也同样清晰:

人才流失会导致时间表继续后推;

巨额投入会让 AI 成成本黑洞;

打开网易新闻 查看精彩图片

对谷歌的依赖如果长期存在,会削弱苹果在隐私上的品牌故事;

AI 安全与透明度问题也可能引发监管关注。

对于用户来说,现在最实际的问题其实很简单:

别急着对 Siri 失望,也别急着对大模型期待过高。苹果现在处在“必输一档体验、赢一档未来”的过渡期。

等到明年春天,Siri 应该能先借力提档;再往后,如果苹果的自研模型真的能顶上,那才是 Apple Intelligence 的真正版本号。

整个故事的走向,已经不再是“苹果有没有 AI”,而是“苹果能不能把自己的骄傲与现实接轨”。

这场转型,才刚开头。