Meta去年卖出200万副AI眼镜,这个数字是前代产品的4倍。但没人告诉你的是,当你戴着它走进咖啡馆,对面桌的人可能正在被实时直播——而TA完全不知情。
《卫报》记者Elle Hunt刚结束为期一个月的实测。她的结论是:这东西好用得让人害怕。
「个人超级智能」的真实体验
扎克伯格给这款产品的定义是「个人超级智能」,卖点是「让你保持当下在场」。翻译成人话:不用掏手机,抬手说声「嘿Meta」就能拍照、听歌、查天气。
Elle Hunt的实测从日常场景开始。通勤路上听播客,镜片腿骨传导发声,外人几乎听不到;看到有趣的街景,语音指令拍照,双手不用离开咖啡杯。这些功能不算新鲜,但整合进一副看起来普通的眼镜,体验确实顺滑。
真正让她意外的是无障碍场景。Meta眼镜的实时语音转文字功能,把对面人的对话直接显示在镜片上——这对听障用户是刚需。物体识别功能能读出眼前的路牌、药品标签,视障测试者的反馈是「比手机方便十倍」。
但Elle Hunt很快发现了产品的另一面:拍摄指示灯太小,一米外基本看不见。
Brighton偷拍事件:当眼镜变成隐形摄像机
Nosheen Iqbal在播客里插了一段采访。Kate和朋友在Brighton海边度假时,被一个网红用Meta眼镜全程跟拍。整个过程没有任何人提醒她们正在入镜。
「我们事后才在社交媒体上看到自己,」Kate说,「他拍了我们吃东西、聊天、甚至弯腰捡东西的角度。」
Meta的官方说法是:眼镜拍摄时LED灯会亮起。但实测显示,这个指示灯在白天户外几乎不可见,夜间室内又容易被误认为是普通反光。更关键的是,没有声音提示,没有震动反馈,被拍者没有任何感知渠道。
这和手机拍摄完全不同。你举手机对着别人,对方至少知道你在干什么。但眼镜的第一人称视角,让拍摄行为彻底隐形。
Elle Hunt自己做过测试:在地铁里连续拍摄20分钟,周围零人察觉。她把这比作「把GoPro戴在太阳穴上,但全世界都假装不知道」。
数据流向:你的视频去哪了
隐私焦虑不止于拍摄行为本身。Meta眼镜的所有AI处理都依赖云端,意味着你看到的每一帧画面,理论上都有上传记录。
公司隐私条款写明:语音指令录音会被用于「改进服务」,存储期限最长两年。照片和视频默认同步到Meta服务器,除非你手动关闭。
Elle Hunt提到一个细节:她尝试完全离线使用,发现核心功能直接瘫痪。翻译、识别、搜索全部报错——这副眼镜本质上是个云端摄像头,本地算力几乎为零。
对比苹果Vision Pro的本地处理架构,Meta选择了更轻量、更依赖网络的技术路线。代价是:你的「第一人称记忆」变成了可分析的数据资产。
可穿戴设备的临界点
播客里穿插的行业背景值得注意。Meta眼镜的热销发生在2024年,同期苹果Vision Pro因重量和价格遇冷,Ray-Ban联名款反而成了「最像正常眼镜」的智能设备。
这个定位精准打击了用户痛点:之前智能眼镜要么像科幻道具(Google Glass),要么功能阉割到鸡肋。Meta找到了平衡点——看起来普通,但随时在线。
问题是,「随时在线」的代价由谁承担?Elle Hunt的观察是:佩戴者获得便利,周围人承担隐私风险。这种不对称性,让社交场景变成了单向透明的实验场。
她记录了一个典型场景:在餐厅和编辑讨论选题,对方完全没意识到眼镜正在录音。事后她主动告知,编辑的反应是「这感觉像被背叛了」。
技术伦理研究者长期警告的「旁观者困境」,正在变成日常体验。
监管滞后于产品
欧盟《人工智能法案》把生物识别列为高风险类别,但眼镜拍摄是否属于「生物识别」,法律边界模糊。美国至今没有联邦层面的可穿戴设备隐私法,各州标准不一。
Meta的应对是添加「请勿在私人空间拍摄」的提示语,以及一个手动关闭LED灯的选项——后者反而让隐蔽拍摄更容易。
Elle Hunt的结论是:产品已经到达临界点,但社会规则没有。她建议的底线是,佩戴者应该主动告知周围人,就像手机拍摄前会举起来示意。
但播客结尾没有给出乐观预期。Kate的Brighton事件最终没有法律追责,因为「公共场所无隐私期待」的原则仍然适用。而Meta眼镜的设计,恰好游走在法律灰色地带。
Elle Hunt归还测试设备时,Meta工程师问她会不会自购一副。她的回答是:「会,但只会在独处时戴。」
如果眼镜的智能程度取决于你愿意牺牲多少周围人的隐私,这个交易还划算吗?
热门跟贴