2024年WWDC上,苹果把Apple Intelligence包装成"AI for the rest of us",结果两年过去,用户等来的不是惊喜,是跳票和残缺功能。彭博社记者Mark Gurman最新爆料:苹果准备换打法了,但这个新策略可能让iPhone变成别人的游乐场。
Gurman的原话很扎心——苹果"实际上已经认输了AI竞赛"。更麻烦的是,这个决定可能让你的手机比以前更不安全,甚至让苹果失去对自己系统的控制。
2026年WWDC的"Extensions"计划
按照Gurman的说法,苹果打算在2026年的开发者大会上推出一个叫"Extensions"的东西。简单说,就是允许用户在Siri里安装第三方AI聊天机器人,不限于现在合作的ChatGPT。
这些机器人会伪装成Siri的样子运行。用户对着手机说话,背后可能是谷歌Gemini、可能是Meta的Llama,也可能是某个你从没听说过的创业公司模型。苹果只提供一个壳,里子全是别人的。
这个思路不是苹果原创。安卓阵营早就这么干了,三星手机能选Gemini当默认助手,Pixel设备甚至把谷歌的AI深度集成到系统层。苹果现在跟进,更像是被逼到墙角后的妥协,而不是什么超前布局。
为什么苹果要"掀桌"
理解这个转变,得先看苹果AI这两年的成绩单。Apple Intelligence发布时承诺的功能——更聪明的邮件分类、上下文感知的Siri、跨应用操作——到现在还没完全落地。内部团队被曝重组了一次又一次,负责AI的高管换了好几拨。
与此同时,OpenAI和谷歌把大模型的迭代速度拉到了以周为单位。GPT-4o的实时语音交互、Gemini的多模态能力,用户看得见摸得着。苹果的"AI for the rest of us"变成了一句空泛的口号,"rest of us"还在等,对手已经跑出去两圈了。
Gurman透露,苹果内部算过一笔账:自己从头做大模型,投入产出比太低。不如把舞台让给专业的,自己收门票钱。这个逻辑放在商业上说得通,放在用户体验上就是另一回事了。
安全风险的三个裂缝
第三方AI接入iOS,至少撕开三道口子。
第一道是数据流向。现在用Siri,语音数据理论上留在苹果生态内。换成第三方机器人,你的提问、位置、日程、联系人,哪些会上传、存在哪、存多久,全看那家公司的隐私政策。苹果能审核应用,但审核不了模型训练时的数据黑洞。
第二道是权限边界。苹果一向以沙盒机制自豪,App之间互相隔离。但AI助手需要跨应用操作才能显得"智能"——帮你订餐厅要打开地图,发消息要访问通讯录。权限一旦放开,第三方模型获得的系统访问级别,可能比任何普通App都高。
第三道最隐蔽:系统主导权。如果用户习惯用Gemini版Siri、ChatGPT版Siri,苹果的原生AI存在感会越来越弱。长此以往,iOS的核心体验由谁定义?苹果会不会变成只是卖硬件的壳,软件灵魂全租给别人?
这不是假设,安卓已经演过一遍
看看谷歌和三星的合作就明白。Gemini深度集成到Galaxy S系列后,三星自己的Bixby几乎被雪藏。用户不会记得"三星AI",只会记得"谷歌那个挺好用的"。
苹果现在面临的选择更尴尬。ChatGPT已经接入了,用户反馈两极——有人觉得终于变聪明了,有人反感要跳转到外部App。如果2026年真的开放"Extensions",苹果相当于官方承认:我们自己的AI不够好,你们去外面找吧。
这个信号对品牌伤害很大。苹果卖的是"它 just works",不是"它 just delegates"。
用户的真实处境
对普通iPhone用户来说,2026年的变化可能是悄无声息的。WWDC上库克会说"我们带来了更多选择",演示里会出现"嘿Siri,用Gemini帮我规划周末"这样的场景。早期 adopters 会尝鲜,媒体会写"苹果终于开放生态了"。
但几年后再看,这可能是个转折点。就像当年苹果允许第三方浏览器引擎、允许侧载应用,每一次"开放"都在稀释封闭的护城河。区别在于,浏览器不会主动问你"要不要听听我对这件事的看法",AI会。
Gurman的爆料里有个细节值得玩味:苹果内部有人反对这个策略,认为应该继续自研。但高层压倒了技术派。这个决策结构本身,或许比决策内容更能说明问题。
热门跟贴