苹果每年都在WWDC前"泄露"点猛料,今年轮到了相机和Siri的联姻。彭博社Mark Gurman的最新报告透露,iOS 27将把Siri模式直接嵌入相机应用——这不是简单的功能叠加,而是苹果对"视觉智能"(Visual Intelligence)战略的一次彻底重构。
更耐人寻味的是时间线:iOS 26还没正式发布,iOS 27的底牌已经亮出。苹果在急什么?
一图读懂:Siri相机模式的底层逻辑
先看清这张牌的结构。Gurman的报告勾勒出一个三层架构:
第一层是入口迁移。现在的视觉智能藏在相机控制按钮(Camera Control)里,iPhone 16系列用户知道它在哪,但更多人根本没发现这个功能。iOS 27要把它搬进相机应用本体,和视频、照片模式并列。
第二层是交互重塑。新的快门按钮会采用苹果智能(Apple Intelligence)的标志性设计——一个视觉锚点,告诉用户"这里有人工智能"。
第三层是能力扩展。扫描营养标签自动记录饮食、拍名片直接存联系人,这些场景化功能被明确列入路线图。
三层叠加,核心意图只有一个:让AI功能从"极客玩具"变成"大众工具"。
为什么现在搬?苹果的焦虑藏在细节里
视觉智能的现状有点尴尬。Gurman的措辞很直接:苹果要让它"更易被发现"(more discoverable)。
翻译一下:用户找不到,等于没做。
目前视觉智能的入口分布堪称碎片化——相机控制按钮、控制中心、锁屏快捷方式、操作按钮(Action button),唯独缺席最该出现的地方:相机应用本身。这种设计逻辑类似于把微信的扫一扫藏在设置里,再给用户十个自定义入口。
苹果的补救方案是双轨并行:相机控制按钮的快捷方式保留,同时在相机应用内新建Siri模式。老用户习惯不打破,新用户门槛大幅降低。
更值得玩味的是合作方的变化。Gurman提到,视觉智能目前接入了ChatGPT和Google图片搜索,而苹果今年初刚与Google达成协议,用Gemini模型驱动个人Siri功能和 upcoming Apple Intelligence特性。Siri模式的底层能力,很可能正在从"外包"转向"自研+深度合作"的混合架构。
Siri独立应用:被忽视的同期布局
相机里的Siri只是冰山一角。Gurman同期披露的系统级升级包括:独立的Siri应用、持久化的聊天机器人体验、以及单次指令解析多任务的能力。
这三项指向同一个产品形态——Siri要从"语音助手"进化为"AI代理"。
独立应用意味着Siri终于有了自己的主阵地,不再依附于系统设置或长按电源键的次级入口。持久化聊天体验则对标ChatGPT、Claude等对话式AI的产品范式,解决Siri最被诟病的"上下文失忆"问题。
单次指令多任务解析的技术价值常被低估。现在的Siri需要用户把需求拆解成步骤:"打开地图搜索咖啡店"→"选最近的一家"→"开始导航"。未来的指令可能是:"找附近还在营业的咖啡店,选评分最高的,导航过去,顺便告诉我停车方便吗"——一句话,系统自己拆。
这种能力如果落地,Siri的可用性将从"勉强能用"跃迁到"真的省事"。
营养标签扫描:一个被低估的场景切口
回到相机应用的具体功能。Gurman列举的扫描营养标签、自动记录饮食信息,看似小众,实则精准。
健康追踪是苹果生态的核心护城河之一。Apple Watch的心率、血氧、体温监测已经建立硬件优势,但饮食数据的录入一直是手动填写的重灾区。MyFitnessPal等第三方应用的用户流失,很大程度上死于"记录太麻烦"。
苹果的策略是用相机降低摩擦:拍一张照,系统自动识别营养成分并写入健康应用。不需要手动搜索食物、估算分量、选择单位。这种"无感记录"如果体验过关,可能复制Apple Watch"闭环健身"的粘性逻辑。
名片扫描存联系人则是另一个经典场景。微软的Office Lens、谷歌的Google Lens都做了多年,但系统级整合的优势在于——识别结果直接写入原生通讯录,跳过第三方应用的中转环节。
这两个功能的共同点是:它们不追求技术炫技,而是解决"知道该做但懒得做"的日常痛点。
WWDC前放风:苹果的公关节奏
iOS 27的正式亮相定在6月8日,WWDC开幕当天。选择提前两个月释放核心信息,苹果的算盘不难拆解。
一方面,iOS 26的Apple Intelligence推广不及预期已是公开秘密。Gurman此前报道过,苹果高层对Siri的延迟交付"深感挫败"。提前预告iOS 27的重磅升级,既能转移市场对当前版本的关注,也能给开发者留出预期管理的空间。
另一方面,视觉智能的相机整合涉及大量第三方应用的利益重构。营养标签扫描直接冲击Yazio、Lose It!等饮食记录应用;名片管理则是CamCard、Haystack的饭碗。提前放风,让生态伙伴有时间调整产品策略或寻求合作入口,比WWDC当天扔炸弹更符合苹果的治理风格。
还有一个容易被忽略的信号:Gurman连续两天释放AI相关情报——第一天是照片应用的三项新功能,第二天是相机应用的Siri模式。这种密集披露通常意味着消息源获得了高层授意,而非单纯的记者挖掘。
产品视角:苹果在补什么课?
把Siri塞进相机,表面是功能整合,深层是产品哲学的纠偏。
苹果过去几年的AI战略有个明显矛盾:一方面大力宣传Apple Intelligence的端侧能力,另一方面把最显性的视觉智能功能藏在硬件按钮里。这种"做了不说"的矜持,在竞争激烈的AI赛道显得格格不入。OpenAI、Google、Anthropic的产品更新恨不得当天上线、当周刷屏,苹果却还在让用户自己找功能入口。
iOS 27的改动表明,苹果终于承认:技术能力的价值取决于用户的触达效率。再强的模型,如果藏在三级菜单里,不如竞品主屏上的一个悬浮窗。
Siri模式的相机整合,本质上是一次"去极客化"的尝试。它不再假设用户会研究系统设置、自定义快捷方式、记住按钮组合,而是把AI能力推到最自然的交互场景——打开相机,看到模式选项,点一下Siri图标。
这种设计思维的转变,可能比任何单一功能都更值得观察。
竞争格局:谁的压力?
苹果的加速对行业的影响是连锁的。
Google Lens是视觉搜索领域的先行者,但一直困于"工具属性"——用完即走,难以沉淀用户关系。苹果的Siri模式如果真能实现"识别-理解-执行"的闭环(拍完营养标签直接记录饮食,拍完名片直接存联系人),就把视觉搜索从"信息获取"升级为"任务完成",这是Google Lens尚未做到的。
三星的Galaxy AI近期也在猛推即圈即搜、实时翻译等功能,但同样面临"功能分散、入口混乱"的问题。苹果的系统级整合能力,在生态一致性上仍有优势。
更隐蔽的战场是健康数据。苹果用相机降低饮食记录门槛,直接威胁到专门做这件事的创业公司。如果系统级功能"足够好用",用户迁移成本趋近于零,垂直应用的生存空间会被急剧压缩。
当然,一切取决于体验。Gurman的报告是路线图,不是成绩单。营养标签识别的准确率、多语言支持、复杂光照条件下的稳定性,这些细节才是决定用户是否愿意把第三方应用卸载的关键。
6月8日的WWDC,苹果需要证明的不只是"我们有这个功能",而是"这个功能真的好用"。
热门跟贴