打开网易新闻 查看精彩图片

2016年,Google Assistant已经能边查餐厅边订位。同一年的Siri,你让它"导航去机场再发定位给老婆",它会礼貌地帮你打开地图,然后——就没有然后了。

9年后,这个差距可能被一次更新抹平。

Bloomberg最新爆料,iOS 27的Siri将支持多指令串联。不是那种"先问天气,再问温度"的回合制对话,而是一口气说完"导航去三里屯,把路线微信发给张三",Siri自己拆解、执行、确认。

这听起来像基础功能?对竞品确实如此。但对Siri,这是架构级重构。

从"唤醒词复读机"到"上下文管家"

从"唤醒词复读机"到"上下文管家"

现在的Siri有个隐秘的枷锁:每次请求都是独立事件。你可以追问"那明天呢",但它不会记得"那"指的是什么——除非你刚好在聊天气,且系统猜对了。

iOS 27的版本要打破这个循环。据Bloomberg,新Siri会:

• 读取屏幕内容(你在看哪张机票、哪条聊天记录)

• 跨App操作(从地图提取地址,塞进短信,不用你复制粘贴)

• 接入网页实时信息(内部代号可能叫World Knowledge Answers)

• 生成图像(接入Image Playground)

这些能力打包在Apple Intelligence框架下,苹果从2024年6月就开始折腾。但多指令处理是其中最棘手的——它要求Siri像ChatGPT那样解析自然语言的嵌套逻辑,而不是匹配预设的关键词模板。

苹果的目标很明确:把Siri改造成能对标Claude、ChatGPT、Gemini的聊天机器人。为此,他们甚至在做独立的Siri App,虽然语音助手本身仍会深埋在iOS、iPadOS、macOS的每个角落。

键盘也要AI化,但苹果还在犹豫

键盘也要AI化,但苹果还在犹豫

同一份爆料提到,苹果在测试AI键盘:实时语法修正、同义词推荐、 typo修复。听起来像Grammarly或Gboard的已有功能,但苹果的版本可能更激进——直接预测你想表达的完整意思,而非逐词纠错。

不过,这个功能未必能赶上iOS 27首发。苹果内部还在争论:要不要为了"更聪明"牺牲响应速度?毕竟,打字时的毫秒延迟,用户比语音助手容忍度低得多。

时间线:WWDC 2026是节点,但别指望一步到位

时间线:WWDC 2026是节点,但别指望一步到位

WWDC 2026定档6月8日,iOS 27、iPadOS 27、macOS 27的首秀舞台。但Bloomberg提醒了两个关键细节:

第一,开发者测试版可能不会立即开放全部Siri功能。苹果有"先发布、后补货"的前科——Apple Intelligence的首批功能就打了"Preview"标签,暗示未完成。

第二,即使9月随新iPhone正式推送,部分能力也可能拖到2026年春季的iOS 27.x更新。多指令处理这种底层改动,翻车风险远高于换壁纸。

苹果的计划是9月前推出"更聪明的Siri",但"更聪明"和"完整版"之间,可能隔着几个月的灰度测试。

为什么现在才做?

为什么现在才做?

一个残酷的事实:Siri 2011年随iPhone 4s发布,比Alexa早3年,比Google Assistant早5年。但语音助手的赛道里,先发优势被技术债务吃干净了。

Siri的早期架构基于人工编写的规则树——"如果用户说A,执行B"。这种设计在2011年足够惊艳,却在深度学习时代成了枷锁。2018年前后,苹果试图用Neural Engine重构语音识别,但核心决策逻辑一直没换底子。

直到2024年,Apple Intelligence才算真正启动"推倒重来"。多指令处理是这个工程的冰山一角:表面是"能听懂复合句",底层是意图识别、任务规划、跨App调度的全套重写。

竞争对手不会原地等待。Google Assistant的多指令已经进化到"帮我找一家评分4.5以上、现在营业、离我2公里内的日料店,订今晚7点的位,把确认码发给李雷"。Siri要追的,是这个级别的连贯性。

苹果手里有张牌是别人没有的:设备端算力。A系列和M系列芯片的Neural Engine,理论上能让Siri在本地完成更多推理,减少云端延迟和隐私顾虑。但"理论上"和"用户感知得到"之间,隔着工程优化的深渊。

WWDC 2026的Demo会怎么演示这个功能?是精心排练的"导航+发微信"连招,还是现场开放提问?这个细节本身,就能说明苹果的信心指数。