提起 Siri,大家的第一反应是什么?

定个闹钟?问个天气?还是那个经典的“对不起,我没听懂”?

这么多年了,Siri 就像个只会做填空题的小学生,稍微复杂点的指令就直接摆烂。

被网友戏称为“人工”,苹果真的一点都不冤。

智障

但好消息是,那个高傲的苹果,终于要动真格了。

打开网易新闻 查看精彩图片

根据外媒 MacRumors 的最新爆料,苹果即将在 4 月份发布的 iOS 26.4 版本中,对 Siri 进行一次史诗级的重构。

这次不是修修补补,而是直接换脑子。

首先,Siri 的底层逻辑变了。

以前它是靠“抓关键词”来猜你想干嘛。

现在的 iOS 26.4,将基于 LLM(大语言模型)重构。

它不再是做填空题,而是开始做“阅读理解”了。

最让我期待的,是它终于长了眼睛,具备了屏幕感知能力。

举个最实用的场景。

打开网易新闻 查看精彩图片

微信里朋友给你发了个餐厅地址,你以前得长按复制,切到地图,粘贴搜索,再收藏。

但在新版 Siri 里,你只需要对着屏幕说一句:“把这个存到他的联系人里。”

Siri 就能直接看懂屏幕上的“这个”指的是地址,然后自动跨应用完成操作。

这就叫所见即所得。

其次,它开始有了记忆,能理解你的个人情境。

比如你突然想不起上周朋友给你发的滑冰攻略在哪了。

你直接问 Siri:“找一下 Eric 上周发给我的滑冰建议。”

它会自动去翻你的邮件、短信、备忘录,把信息提取出来给你。

这时候的 Siri,才真正像是一个懂你的数字管家,而不是一个冷冰冰的语音助手

当然,为了实现这些能力,苹果这次也做了巨大的妥协。

为了赶进度,苹果不再死磕纯自研,而是拉来了老对手——谷歌。

打开网易新闻 查看精彩图片

iOS 26.4 的后端模型,将由苹果自研模型和谷歌的 Gemini 联合打造。

这是一套很聪明的混动方案。

简单的、涉及隐私的操作,苹果用自家的私有云计算搞定。

复杂的、需要通用大模型知识的,直接扔给谷歌 Gemini 处理。

既保证了隐私安全,又补齐了智商短板。

不过,大家也别高兴得太早,这里得泼盆冷水。

新版 Siri 虽然变强了,但它依然不是 ChatGPT 那种陪聊机器人。

它的定位是一个执行者,帮你操作手机、处理任务。

它暂时还不支持无限制的长对话,也不适合用来写论文或者聊人生。

打开网易新闻 查看精彩图片

按照苹果的节奏,iOS 26.4 的测试工作预计 2 月底就会启动,正式版 4 月推送。

虽然不是一步到位的完全体,但这绝对是 Siri 诞生以来最大的一次换脑手术。

它被视为通往 iOS 27 完全体 AI 的关键跳板。

对于手里拿着 iPhone 的朋友来说,这可能是这几年来最值得期待的一次系统更新。

最后问一句:

如果 Siri 真的能看懂屏幕、帮你干活了。

你会重新启用它吗?

还是说,你已经习惯了把 Siri 的开关永远关掉?

欢迎在评论区聊聊你的看法。