如果Siri能调用ChatGPT、Claude、Gemini任意一个模型,你还会骂它"人工智障"吗?
彭博社记者马克·古尔曼的最新爆料,让这个问题有了落地的可能。苹果计划在iOS 27、iPadOS 27和macOS 27中开放一项关键功能:用户可自行选择第三方人工智能模型,来完成生成式任务。这不再是"可能或许"的传闻,测试版软件里已经出现了名为"Extensions"的功能入口。
从封闭到开放:一条迟到的时间线
苹果的AI战略曾经让人看不懂。当OpenAI、谷歌、Anthropic在2022-2023年轮番发布大模型时,苹果保持着近乎沉默的姿态。Siri的智能化升级一拖再拖,Apple Intelligence的首批功能直到2024年才陆续上线,且仅限英文和部分机型。
这种"慢半拍"引发了大量质疑。市场期待苹果拿出自研的、能与GPT-4抗衡的底层模型,但等来的却是与OpenAI的合作——ChatGPT被接入Apple Intelligence,作为"需要时跳转"的外部选项。
转折点出现在2025年3月。古尔曼当时披露,苹果正在开发支持多模型切换的AI聊天机器人功能。这一信号与最新爆料形成呼应:苹果似乎放弃了"亲自下场做最强模型"的路线,转而搭建一个平台,让各家AI在上面竞技。
测试版系统中的提示文案写得很清楚:"Extensions允许你通过Apple Intelligence功能(如Siri、写作工具、图像游乐场等),按需访问已安装应用中的生成式AI能力。"翻译成人话:系统还是那个系统,但脑子可以换。
Extensions机制:苹果的"模型应用商店"
这个设计的商业逻辑值得拆解。AI公司若想入驻,需要主动申请并将支持接入App Store项目。通过审核后,它们的模型会成为Apple Intelligence的可选引擎之一。
对用户而言,这意味着写作、编程、图像生成等任务不再绑定单一供应商。偏好创意写作可能选Claude,需要实时信息可能选Gemini,习惯ChatGPT则维持现状。选择权第一次真正交到用户手里。
对苹果而言,这是典型的平台化思维——不做内容生产者,做内容分发者。它规避了与OpenAI、谷歌直接竞争的技术风险,同时把用户锁定在iOS生态内。无论选哪个模型,入口都是Siri,数据流都经过Apple Intelligence的调度层。
对第三方AI公司,这则是触达十亿级设备用户的通道。苹果设备的AI使用场景长期被诟病"不够智能",现在它们有机会用自己的模型填补这个缺口。
为什么现在?为什么是这个方案?
苹果的历史基因是"围墙花园"。从iTunes到App Store,从芯片到操作系统,垂直整合一直是其核心竞争力。突然转向开放,背后有多重压力。
技术层面,自研大模型的进度未达预期。Apple Intelligence的本地模型能力有限,云端方案又面临隐私合规的复杂挑战。与其继续拖延,不如先解决"有没有"的问题。
商业层面,AI已经成为智能手机的核心卖点。三星Galaxy S系列深度整合Gemini,谷歌Pixel更是原生搭载自家模型。苹果若再不行动,高端市场的叙事权将持续流失。
用户层面,"智能助手不好用"的抱怨已经积累多年。Siri的口碑滑坡是公开的事实,单纯修补难以扭转认知。引入外部竞争,至少能快速提升体验下限。
古尔曼的爆料中提到一个细节:测试版里的Extensions功能,支持范围覆盖Siri、写作工具、图像游乐场等多个入口。这不是边缘试水,而是系统级的架构调整。苹果认真了。
一个反直觉的判断
这件事的重要性被低估了。
行业主流叙事聚焦在"苹果AI落后",但Extensions模式可能定义一种新的交互标准:操作系统作为AI模型的调度中枢,而非单一模型的载体。如果iOS 27跑通这个逻辑,安卓阵营大概率跟进,整个消费电子的AI集成方式将被改写。
更深一层,这是苹果对"AI时代什么最值钱"的重新定价。模型能力正在快速商品化,调用模型的入口和体验反而稀缺。苹果赌的是后者——用设备端优势换云端模型的自由流通。
当然,风险同样明显。多模型切换会增加系统复杂度,不同模型的输出风格差异可能导致体验割裂。隐私承诺如何兑现、开发者分成如何设计,都是待解的问号。
但至少方向清晰了:苹果不再试图成为最好的AI公司,而是成为最好的AI平台。对于一家习惯掌控一切的企业,这种妥协本身就是信号。
至于Siri会不会因此翻身——嗯,它终于有机会证明,问题可能从来都不是自己的嘴,而是借来的脑子不够好使。
热门跟贴