Meta Ray-Ban智能眼镜的用户还没消化完"偷拍视频被拿去训练AI"的丑闻,下一颗雷已经埋好了。内部代号"Name Tag"的人脸识别功能,能让佩戴者对着陌生人扫一眼,就能调出对方的社媒档案——而Meta的计划是,趁政治动荡期悄悄上线。
70多家民权组织直接炸了。ACLU、Fight for the Future、Access Now等机构联名致信扎克伯格,要求把这功能掐死在测试阶段。他们的核心论点很直白:街头路人没办法"同意"被识别,而跟踪者、施暴者、联邦执法部门会爱死这玩意儿。
"Name Tag"的两种玩法,都很危险
据Wired披露,工程师正在评估两个版本。温和版只认你在Meta平台上的好友,激进版则能识别任何公开Facebook或Instagram账户的人。听起来后者更吓人?但前者的问题同样致命——你的"好友"名单里,可能藏着刚分手的前任、闹翻的同事、或者根本不该知道你在哪的人。
更微妙的是技术路径。Meta的AI助手已经能分析眼镜拍摄的实时画面,加入人脸识别只是多跑一层算法。硬件早已就绪,软件开关一推就能上线。这意味着监管和舆论的反应窗口极短,可能等大众反应过来时,街上已经到处是"人形监控探头"。
民权联盟的警告并非杞人忧天。Meta Ray-Ban眼镜的现有功能里,长按镜腿就能启动录像,指示灯小得可怜,三米外基本看不见。加上人脸识别后,一个完整的监控链条就闭环了:看见某人→识别身份→调取公开资料→记录时间地点→上传云端。全程无需被拍者知情。
内部备忘录泄露:Meta算准了"没人盯着"
纽约时报拿到的2025年5月内部文件,让这件事从"技术争议"变成了"道德丑闻"。备忘录里写着,计划在一个"动态政治环境"中推出该功能,届时公民团体的注意力会被分散到别处。
联盟在公开信中用了"vile behavior"(卑劣行径)来形容这个策略。翻译一下Meta的思路:趁乱上架,生米煮成熟饭,等反对声浪起来时,用户基数已经够大,下架成本太高。这套打法在科技圈不新鲜,但写在纸面上、被泄露出来,还是让人见识了大厂的坦诚。
Phil Nickinson在Digital Trends的评论很克制:"我对Meta的隐私安全本来就没抱期望,但这事确实进入了未知水域,可能对真实世界的人造成身体伤害。"
身体伤害不是修辞。家暴幸存者依赖匿名性逃离施暴者,跨性别者在某些地区需要隐藏身份,堕胎寻求者在部分州面临刑事风险。一张被眼镜扫过的脸,可能直接暴露位置、社交关系、甚至行踪轨迹。Meta的算法不会问"这人为什么不想被认出来",它只会返回匹配结果。
隐私丑闻叠加:用户视频已被拿去训练AI
人脸识别的争议还没落地,另一项调查又补了一刀。有研究发现,Ray-Ban Meta眼镜会把用户录制的私人视频发送给第三方承包商,用于AI训练。这些视频包括家庭聚会、卧室场景、医疗咨询——用户以为的"本地处理",实际上成了外包标注员的素材。
两件事凑在一起,画像很清晰:Meta把眼镜用户同时当作数据采集端和识别目标端。你戴眼镜拍别人,别人戴眼镜拍你,所有画面最终都回流到同一个训练池里。所谓的"智能生态",本质是双向收割。
Andy Boxall的评价更直接:"对顾客隐私又一个大耳光。"
Meta的回应是标准话术:目前没有该功能,推出前会"非常深思熟虑"。但"Name Tag"已经存在于内部代码和工程师的待办清单里,"目前没有"和"永远不会"之间的距离,取决于舆论压力能持续多久。
一个值得玩味的细节:Meta选择Ray-Ban作为硬件载体,看中的正是其"时尚单品"属性,而非"科技设备"的警觉感。普通人很难对一副墨镜保持防御姿态,这正是"Name Tag"最阴险的地方——技术越 invisible(隐形),侵入越 seamless(无感)。
当识别一个人变得像抬手遮光一样自然,"公共场合无隐私"就从法律辩论变成了物理现实。而Meta备忘录里那个"动态政治环境"的措辞,暗示他们知道这会引发反弹,只是赌定了反弹来得不够快。
如果最终版本允许用户关闭自己被识别的权限,你会相信这个开关真的管用吗?
热门跟贴