「用户将能够通过设置应用,把兼容的第三方AI设为首选。」——Mark Gurman的爆料,让苹果生态的AI战略突然清晰起来。

这不是简单的功能更新。当iOS 27、iPadOS 27和macOS 27在今年秋季推送时,苹果可能完成一次身份转换:从AI模型的封闭开发者,变成AI能力的平台分发者。

打开网易新闻 查看精彩图片

从ChatGPT独占到"Extension"生态

目前Apple Intelligence只接入了ChatGPT一家第三方模型。但Gurman透露,苹果正在内部测试Google和Anthropic的AI集成。

新机制叫"Extensions"——第三方AI模型通过App Store应用申请接入,用户安装后即可在系统设置中切换首选模型。

这意味着Writing Tools、Image Playground等原生AI功能,未来可能由非苹果的模型驱动。

更细颗粒度的设计是:不同模型可以绑定不同Siri语音。用苹果自研模型时是一种声音,切到ChatGPT版Siri时变成另一种。

为什么苹果要"放权"

表面看是用户体验的灵活性,底层是苹果对AI竞争格局的重新判断。

自研模型进度不及预期,是公开的秘密。Gurman此前多次报道Siri重构延期,而Google模型已成为新版Siri的技术底座。

与其在单点能力上硬磕OpenAI、Google、Anthropic,不如把系统级入口变成可插拔的架构。

这个逻辑和当年开放App Store类似:苹果不自己做所有应用,但控制分发管道和体验标准。

区别在于,AI Extensions的切换成本比换App更低——用户在设置里点几下,整个系统的AI"大脑"就换了。

对开发者和用户的双重影响

对AI公司而言,这是触达iOS十几亿用户的捷径。不需要说服用户下载新App,只需要被装进系统设置的首选列表。

但"opt in"机制意味着苹果保留审核权。哪些模型能进、排序如何呈现,仍是苹果说了算。

对普通用户,选择悖论可能重现。当三个、五个、十个AI模型都能驱动Siri,"该用哪个"变成新负担。

语音区分的设计是聪明的解法——用听觉线索降低认知负荷,让用户对"谁在回答"有直观感知。

行业层面的信号

苹果这一手,把移动端AI竞争从"模型能力单挑"推向"系统集成比拼"。

Google有Android和Gemini的深度整合,OpenAI有ChatGPT的独立生态,Anthropic靠Claude的口碑突围。现在苹果说:你们都可以来我这,但得按我的规则。

这未必削弱头部模型的优势,但确实改变了游戏规则。最强模型不再自动赢得最多用户,体验一致性、响应速度、与系统功能的耦合深度,权重会上升。

另一个被低估的点是数据流。当用户频繁切换模型,苹果能获得不同AI在真实场景下的表现对比——这比任何实验室评测都值钱。

实用判断

iOS 27的AI Extensions如果如期落地,标志着苹果正式接受"AI能力外包"策略。这不是认输,而是把战场从模型训练转移到平台运营——一个它更熟悉的领域。

对科技从业者,值得跟踪三个指标:首批接入的第三方模型名单、苹果自研模型在默认选项中的占比变化、以及Siri语音与模型绑定的具体实现方式。这些细节会暴露苹果的真实底气。