一方面是 AI 的热闹还在继续,但另一方面,消费电子市场似乎也在给「AI 热」泼了一次冷水,告诉我们:AI 这两个字,好像没有之前预想的那么重要。

戴尔产品负责人凯文·特威利格最近在 CES 2025 上就明确表示,他们过去一年观察发现,PC 的 AI 功能并不会影响消费者的购买决策,甚至言必称 AI 的产品宣传「让用户更加困惑」。

不单是戴尔,联想智能设备业务集团总裁卢卡·罗西也委婉表示,多数消费者的决策依据仍然是设备的轻薄设计、续航、与拓展性等,只有少数专业群体会明确关注 AI 功能。

事实上也的确如此,至少 AI 对于当下手机、PC 的消费者来说,还远不是购买决策的重要因素,这点从我们身边到整体市场皆是如此。

IDC 最近就接连发布了两份市场报告。一份是 2025 年第四季度全球 PC 市场报告,显示在 Windows 10 终止支持和内存短缺的背景下,戴尔和联想领跑 TOP5 厂商,出货量同比增长 18.2% 和 14.4%,与 AI 并无明显关联。

打开网易新闻 查看精彩图片

一份则是 2025 年第四季度中国手机市场报告,显示在一众国产手机品牌下滑的背景下,iPhone 不仅再一次保住了第四季度第一的宝座,更同比去年大增 21.5% 至 1600 万台,主要则是得益于这代 iPhone 17 系列对于国内消费者依然极具吸引力。

打开网易新闻 查看精彩图片

而国行 iPhone,众所周知并没有上线任何 Apple Intelligence(苹果智能)功能。无论怎么看,iPhone 17 都几乎是这一代全球主流旗舰里,AI 色彩最淡的一款。

但它就是卖爆了。

过去两年,AI 一直被很多品牌认为是一种对市场销量和声量的强刺激,围绕 AI 的很多产品营销,也让不少消费者感到困惑。这不是说消费市场已经开始反 AI,只是对铺天盖地的「AI」已经脱敏,用户真正关心的,还是和实际使用息息相关的产品体验。

如果说不靠 AI,iPhone 依然能卖爆,消费者也开始对 AI 的各种宣传话术免疫,那苹果还有必要继续砸重金追赶全球顶级大模型吗?

坦白讲,这个问题的答案很难用一句话概括。

引入 Gemini、接入 MCP,苹果的 AI 战略变了

引入 Gemini、接入 MCP,苹果的 AI 战略变了

「我们相信,我们需要拥有并控制我们产品背后的主要技术,只参与能够做出重大贡献的市场。我们相信对成千上万的项目说不,这样我们才能真正专注于那些对我们真正重要和有意义的少数项目。」

2009 年,时任苹果 COO 的库克在一定程度上表明了苹果的决策思路。问题在于,什么是主要技术?屏幕和芯片显然都是影响手机体验的关键,但苹果并没有自研屏幕,却自研了芯片。

所以作为 AI 功能底座的基础模型,是屏幕还是芯片?

一周前,苹果与谷歌投下了一个爆炸性新闻,联合官宣下一代「Apple Foundation Models」(苹果基础模型)将基于 Google 的 Gemini 和云技术,并在此基础上推出未来的 AI 功能和更具个性化的 Siri。

事实上,Google CEO 桑达尔·皮柴早在 2025 年 4 月就透露过,希望 Gemini 能在年内就集成到 iPhone 的 Apple Intelligence 功能上,也间接透露了苹果当时的考虑。到了 11 月,彭博社披露双方正在敲定一项为期多年的合作协议,苹果将以每年约 10 亿美元获得 Gemini 的使用权,雷科技也做了进一步的分析。

打开网易新闻 查看精彩图片

图片来源:The Verge

这不是简单的「加一个 Gemini 入口」或者「把 ChatGPT 换成 Gemini」。更像是苹果承认了一件现实:在短时间内扭转 AI 体验上的劣势,想靠自研模型不太现实。于是我们看到,苹果选择了在他看来最有能力的 Gemini。

但这并不等于放弃自研。过去两年,苹果一直在推进自己的基础模型体系。官方技术报告里,苹果明确介绍了 Apple Intelligence 背后的两类模型,一类是约 30 亿参数的端侧模型,另一类是运行在私有云计算平台上的服务器模型。

同时,苹果也不断强调私有云计算的定位,它不是普通公有云,而是把设备级安全模型延伸到云端,让更大模型在云上跑,但仍然尽可能把隐私边界锁在「苹果可验证的运行环境」里。包括引入 Gemini。联合声明中也强调,Apple Intelligence 将继续运行在苹果设备和私有云计算上。

换言之,苹果虽然在模型层引入了第三方的 Gemini,但在运行层和能力层(面向开发者)仍然保有绝对的把控。

不过值得关注的变化,不止于基础模型的变动。更关键的是,苹果正在把 AI 的战场,从「谁的模型更强」挪到「谁更能把工具、数据和第三方应用连接起来」。

这就牵到了 App Intents 和 MCP。在苹果设计的架构里,App Intents 框架一直是 Apple Intelligence 对外的核心管道,深度整合应用的动作和内容与跨平台的系统体验,包括 Siri、Spotlight、控件、控件等。而第三方应用,能够通过App Intents 实现应用内外的动作执行和功能发现等。

去年 9 月,iOS 26.1 beta 版的代码就显示苹果正在为 MCP 做系统级支持,并且是接入 App Intents 框架,让开发者继续写熟悉的 App Intents,系统再把这些能力映射到 MCP 世界。

打开网易新闻 查看精彩图片

如果这一步真的在今年 WWDC26 上落地,它的重要性会在很大程度让我们忽略苹果在「底层模型」的劣势。因为将 MCP 接入 App Intents 核心解决的是「模型能不能可靠地调用工具」,当一个系统把大量 App 能力用统一协议暴露出来,并把权限、回执、失败兜底都做成系统级能力时,模型就更像一个可替换的发动机。

发动机当然还存在「优劣之分」,但不管是 Gemini,还是未来的自研模型,甚至是其他模型,只要它遵守同一套工具调用与权限边界,用户体验就不会被连根拔起。而把这两条线放在一起看,不难得出一个结论:

苹果当然还会训练模型,甚至必须训练。它需要端侧模型,需要把基础能力固化成自己的系统底座,但未必还需要把全部筹码押在「追赶全球顶级大模型」上,因为具体到产品体验,模型未必会是那个核心支点。

苹果 AI,究竟走向何方?

苹果 AI,究竟走向何方?

说到这里,其实已经很难再用「做不做大模型」简单概括苹果的 AI 战略了。

从引入 Gemini 作为基础模型,坚持私有云计算的运行模式,再到为 App Intents 接入 MCP ,苹果已经非常明确地给出了一种新方向,不再试图用一个最强模型,去正面硬刚所有对手,而是试图搭一套新的系统级范式,让 AI 变成 iOS 里的一种基础能力。

问题在于,这条路到底能不能走通,现在还没有答案。因为从产品体验的角度看,苹果这套「Gemini + 私有云计算 + MCP」的新模式,本质上是在赌一件非常具体、也非常现实的事情:

Siri 也好,AI 功能也好,到底能不能更好地解决用户的需求?

打开网易新闻 查看精彩图片

如果 AI 只是多了一层更聪明的自然语言入口,而底层权限、调用边界、系统能力暴露程度并没有发生质变,那无论背后是 Gemini 还是苹果自研模型,用户最终感知到的,也只会是一个更聪明点的 Siri。

这也是为什么,苹果即便引入了 Gemini,依然要把私有云计算和系统边界抓得这么紧。它真正想控制的,从来不是模型参数规模,而是 AI 能在多大程度上,进入 iOS 的核心能力层,而不是继续被隔离在一个个 AI 功能里。

所以不 AI 就能卖爆,苹果还有必要训练模型吗?

答案是有,但更重要的是,模型不是一切。引入 Gemini,既是无奈之举,也是一个务实之选,更根本的变化在于苹果选择重新聚焦到用户体验,反推过来试图先把基础模型上的短板补齐,而不是硬着头皮自己死磕到底。简言之,苹果现在更在意的,是时间和体验的确定性。

如果几年后回头看,用户对 Apple Intelligence 的评价,更多来自体验有没有变好,而不是模型到底是谁提供的,那今天这一步,可能反而会被证明是对的。

这,或许才是苹果真正要赌的那一把。