想象一下:你走在地铁里,对面的人戴着一副普通眼镜看了你一眼。三秒后,他知道了你的名字、工作、社交媒体账号,甚至你昨晚发的朋友圈。这不是科幻片,是Meta正在测试的功能。

《纽约时报》曝光的一份内部备忘录显示,Meta计划在智能眼镜中加入名为"姓名标签"(Name Tag)的人脸识别系统。备忘录明确承认该项目存在"安全和隐私风险"。美国公民自由联盟(ACLU)4月13日致信扎克伯格,警告这一功能将对弱势群体构成威胁。

打开网易新闻 查看精彩图片

正方:Meta的辩护逻辑

Meta并非没有准备说辞。

据"熟悉该软件的人士"透露,"姓名标签"的首要卖点是辅助视障人士。Meta计划先在一个"盲人会议"上发布该功能,再推向大众市场。这个切入点很聪明——将争议技术包装成无障碍工具,既能规避部分伦理审查,又能占据道德高地。

内部备忘录还列出了更多"益处":帮助用户识别熟人、在嘈杂环境中确认对方身份、为记忆力衰退者提供辅助。这些场景确实存在真实需求,也是Meta试图与公众沟通的核心话术。

更微妙的是发布时机。《纽约时报》援引的备忘录原文显示,Meta有意选择"动态政治环境"中推出,预期届时"原本会攻击我们的公民社会团体将把资源集中在其他关切上"。

这句话的潜台词令人不适:公司高层承认反对者的担忧合理,但打算趁他们分身乏术时强行推进。

反方:隐私倡导者的警告

ACLU的反对信列出了具体的受害群体清单:宗教少数群体、有色人种、LGBTQ+群体、跟踪骚扰幸存者。范围几乎涵盖所有人——从儿童到企业CEO,只要有网络存在痕迹。

核心风险在于隐蔽性。智能眼镜外观与普通处方眼镜无异,佩戴者可以"监视和分析"遇到的每一个人,用于"识别和跟踪"潜在受害者。ACLU特别指出,警察佩戴此类设备可能违反美国宪法第四修正案(禁止无理搜查和扣押)。

信中还引用了2024年的真实案例:哈佛学生使用配备人脸识别软件的智能眼镜,在波士顿地铁实时识别陌生人。这不是理论推演,是已经发生的场景测试。

数据层面,ACLU援引的研究显示,针对LGBTQ+群体的攻击近年呈上升趋势。将人脸识别与隐蔽穿戴设备结合,相当于为潜在施害者提供了精准定位工具。

技术对抗:道高一尺魔高一丈

有趣的是,对抗技术也在同步进化。

市场已出现两类反制方案:一是特殊镜片,可欺骗人脸识别软件;二是应用程序,作为"反智能眼镜雷达"使用。这形成了一种技术军备竞赛——识别与反识别、监视与反监视的螺旋升级。

但个人防护工具的门槛显而易见:你需要知道威胁存在,需要主动购买设备,需要持续更新对抗手段。而攻击者只需一副眼镜和一次注视。

这种不对称性是隐私倡导者的深层忧虑。

我的判断:这不是技术问题,是权力结构问题

拆解这场争议,真正的分歧不在于人脸识别本身,而在于谁有权在何时、以何种方式、对何人使用这项技术。

Meta的备忘录暴露了一个关键事实:公司清楚风险,却选择战术性回避而非实质性解决。将视障辅助作为首发场景,本质是寻找监管薄弱地带建立既成事实。等待政治动荡期发布,则是利用社会注意力稀缺窗口。

更值得追问的是默认设置。如果"姓名标签"默认关闭,用户需主动开启,风险可控;如果默认开启或难以察觉,则构成系统性侵犯。原文未提及具体设计,但这将是决定产品性质的分水岭。

哈佛学生的地铁实验揭示了另一个维度:当识别能力下沉到消费级设备,陌生人之间的"匿名性缓冲带"正在消失。传统公共空间中,你可以选择不自我介绍;未来,技术替你完成了这个步骤,且未经同意。

ACLU对警察使用的担忧指向制度层面。第四修正案的保护逻辑基于"合理隐私期待",但当监控设备普及且隐蔽,法律框架的适用性本身成为问题。这不是Meta单独能回答的,但公司的产品决策正在重塑这个问题的紧迫程度。

回到起点:一副眼镜能否让人人成为监视者?技术上已经可行。商业上,Meta正在试探边界。伦理上,共识尚未形成。而法律,通常滞后于技术部署两到五年。

如果你关心这件事,现在不是等待"尘埃落定"的时候。关注你所在地区的生物识别数据立法动态,了解智能设备的人脸识别默认设置,向代表你的机构表达立场。技术不会自动向善,但公众的注意力分配,会影响它向哪个方向演化。