每年被传"即将发布"的苹果眼镜,这次终于有实锤了。彭博社马克·古尔曼(Mark Gurman)刚放出一波猛料:代号N50的显示眼镜正在测试,2027年上市——比Meta Ray-Ban晚了整整4年。
但一个细节让我停下了嘲讽的手指。古尔曼强调,苹果把筹码全押在"隐私"这张牌上。当所有厂商都在疯狂采集你的视觉数据训练AI时,苹果想证明一件事:不偷窥也能做好智能眼镜。
四款原型机,库克亲自试戴
古尔曼拿到的内部消息显示,苹果实验室里同时跑着四种设计。大号方框致敬Ray-Ban Wayfarer经典款,窄版矩形据说是库克本人偏好的风格,还有大 oval 和圆形框架,以及后者的"瘦身精修版"。
功能清单倒是不意外:拍照录像、音乐播放、通知推送、Siri交互。古尔曼补充说,iOS 27将迎来Siri的"大升级"——这话他年年说,但今年总算和硬件节奏对上了。
真正有意思的是另外两款产品。带摄像头的AI AirPods,以及一个能挂脖子上的AI吊坠。三者共用同一套技术逻辑:摄像头+麦克风采集环境信息,AI实时分析后给出视觉提醒。想象一下,AirPods提醒你"左边第三排有熟人",吊坠在你经过便利店时闪烁"牛奶快过期了"。
古尔曼没给具体时间表,只说了"今年晚些时候"有消息,眼镜正式发售锁定2027年。这个时间点很微妙——正好卡在Meta第三代AR眼镜 rumored 发布窗口。
4年差距,怎么追
作为长期关注智能眼镜的观察者,我得说苹果给自己挖了个深坑。
Meta Ray-Ban第二代2023年10月上市,到2027年苹果入场时,这款单品预计已经迭代两代、累计销量破千万。更麻烦的是,竞争对手的AR显示眼镜(带屏幕的那种)届时可能已经进入第三代。
用户心智这东西很残酷。当普通人已经习惯"智能眼镜=拍照听歌+偶尔显示导航",苹果再推一款"只能拍照听歌"的产品,故事很难讲。
但苹果显然算过另一笔账。
Meta的智能眼镜默认开启云端AI分析,你的每一帧画面都可能成为训练数据。苹果的策略是本地处理+差分隐私——设备端运行模型,只上传加密后的统计特征,连苹果自己都还原不出原始图像。
这套架构的代价是算力成本飙升,好处是可以在广告里直接怼脸Meta:"你的眼镜在看你,我们的没有。"
隐私牌,能打赢吗
智能眼镜的隐私悖论比手机尖锐一百倍。手机摄像头对着你时,你至少知道;眼镜上的摄像头对着谁,佩戴者自己都可能没意识。
Meta的应对是LED指示灯+物理快门,但用户调研显示,超过60%的佩戴者会在敏感场合关掉提示灯。苹果如果能在硬件层面彻底杜绝"偷拍模式"——比如必须语音确认才能录像,或许真能切中一批人的痛点。
古尔曼的消息里有个容易被忽略的细节:苹果测试中的吊坠产品,定位是"AirPods的替代场景"。这暗示苹果在探索一种更轻量的穿戴形态,不塞耳朵、不架鼻梁,把AI助手变成项链上的挂件。
如果这条产品线跑通,苹果将拥有手机、手表、耳机、眼镜、吊坠五层穿戴矩阵。每一层都是独立的隐私计算节点,数据在设备间加密流转,云端永远看不到完整画像。
这是只有苹果能玩的游戏。Meta没有手表,谷歌没有耳机生态,亚马逊的硬件部门还在裁员。隐私架构的护城河,建立在全栈控制力之上。
2027年的赌局
回到那个核心问题:晚了4年,苹果还有机会吗?
看数据的话,智能眼镜市场还在早期。2024年全球出货量约200万台,其中Meta占绝对大头。但对比TWS耳机同期1.2亿台的规模,眼镜品类显然还没跨过鸿沟。
苹果的习惯是等市场验证完需求再入场,然后用体验整合能力收割。iPhone不是第一台智能手机,AirPods不是第一副真无线耳机,Apple Watch也不是第一块智能表。
但这次的时间差确实夸张。4年在消费电子领域是两个完整周期,足够让用户形成品牌忠诚,足够让开发者生态固化。
古尔曼的爆料里藏着一句潜台词:苹果内部对N50的定位是"试探性产品",真正的AR眼镜(带显示屏的)要排到2028年以后。这意味着2027年的苹果眼镜,本质上是在用2023年的产品形态,去打Meta 2027年的迭代款。
除非——隐私焦虑在这个周期内爆发性增长。
已经有迹象了。欧盟AI法案对生物识别数据的限制、美国各州对公共场所面部采集的立法、TikTok数据风波后年轻人对"被观看"的敏感……这些碎片正在拼凑成一张新的用户画像:愿意为隐私溢价付费的人,可能比想象中更多。
苹果赌的就是这个。不是赌技术领先,是赌价值观领先。
一个有趣的对比:Meta Ray-Ban起价299美元,苹果眼镜 rumored 定价"高端"。如果最终落在499-599美元区间,200美元的差价买"不被云端AI分析",你会怎么选?
热门跟贴