斯派克·琼斯2013年的电影《Her》里,华金·菲尼克斯戴着耳机,与斯嘉丽·约翰逊配音的AI随时对话——这个场景被影评人称为"预言式"的。十二年后,苹果似乎要把这个预言兑现到AirPods上。

iOS 27还有一个月发布,Siri的彻底重做是核心看点。但比iPhone更值得关注的,可能是你耳朵上那副耳机。

打开网易新闻 查看精彩图片

正方:AirPods即将成为"语音优先"的AI设备

作者自称"每天大部分时间都戴着AirPods Pro",依赖降噪功能专注工作。对他而言,iOS 27的Siri升级提供了一个新理由:把耳机变成常驻设备。

现在的Siri有个尴尬——语音唤醒很方便,但"本身太不可靠",导致使用频率不高。iOS 27据称将改变这一点:

• 对话式交互,类似ChatGPT的聊天体验
• 大模型驱动的世界知识+个人上下文理解
• 深度系统控制,跨应用执行操作
• 单指令多步骤任务
• 第三方AI平台扩展

苹果软硬件一体化的优势在这里显现:第三方AI聊天机器人需要手动打开App,而Siri在AirPods上随时待命。作者预期,如果苹果(借助谷歌的帮助)能交付一个符合AI时代标准的Siri,他会"开始大量通过AirPods使用Siri"。

目前的ChatGPT集成已给出预览——但缺陷明显:必须明确说"问ChatGPT",对话功能也不完整。iOS 27 reportedly 将提供"完全对话式、来回交互的AI体验",在iPhone和AirPods上无缝运行。

作者的态度很明确:和独立的Siri App一样期待,甚至"同样兴奋"于AirPods成为真正的AI设备。

反方:我们听过太多次"Siri这次真的变了"

但历史记录并不乐观。Siri的"重大升级"承诺在历届WWDC上反复出现,实际交付却屡屡落差。2016年的Siri SDK开放、2021年的设备端处理、2024年的Apple Intelligence——每次都被寄予厚望,每次都被用户发现"还是不太好用"。

原文中的措辞本身也留了退路:"rumored""reportedly""if Apple...can deliver"——这些条件句堆叠出一个未被验证的假设。作者自己也承认现状:"Siri本身太不可靠"。

更深层的疑问是:语音交互的物理限制是否被低估了?《Her》的电影场景发生在私密、安静的个人空间,而真实世界的AirPods用户要面对地铁噪音、办公室对话、街头安全——这些场景下,语音优先的AI交互是否比屏幕更高效,尚无定论。

此外,"借助谷歌的帮助"这个细节值得玩味。苹果在AI核心能力上对外部合作的依赖,是否会影响Siri的差异化体验?当Gemini或ChatGPT的能力被封装进Siri,AirPods的"苹果独占优势"还剩多少?

判断:关键不在技术,在"常驻性"的重新定义

抛开技术实现的不确定性,这个传闻指向一个确定的趋势:计算设备正在从"手持"向"穿戴"迁移,从"主动使用"向"环境存在"演化。

AirPods的年销量已过亿,是苹果生态中渗透率最高的设备之一。但它的角色长期被定义为"iPhone配件"——音乐播放、通话、降噪。iOS 27的Siri重做如果成真,将尝试重新定义这个定位:从"听东西的耳机"变成"随时待命的AI入口"。

这个转变的商业逻辑很清晰:屏幕是有限的,注意力是稀缺的,但耳朵是"永远在线"的感官通道。苹果在可穿戴领域的布局(AirPods、Apple Watch、Vision Pro)本质上都是在争夺"身体计算"的入口位置。

作者的个人使用场景——降噪专注+随时语音唤醒——恰好击中了这个逻辑的核心:不是替代手机,而是在手机不便出现的场景(走路、运动、工作专注时)承接计算需求。

但产品创新的成败,往往取决于"最后一英里"的体验细节:唤醒成功率、误触发率、响应延迟、隐私安全感。这些无法从功能清单中预判,只能等6月的WWDC和后续实测。

一个可以观察的指标:苹果是否会为AirPods推出专属的AI交互模式,还是简单复用手机端的Siri体验。真正的"语音优先"需要重新设计信息密度、反馈方式、错误恢复机制——而非把聊天机器人的对话流塞进耳机。

《Her》的预言能否兑现,取决于苹果是否愿意承认:耳机上的AI,需要一套不同于屏幕的交互语法。这比大模型能力本身更难,也更重要。