想象一下:你刚上传了一张聚会照片,系统没扫你的脸,却在分析你的骨架比例和身高——然后判定你"可能未满13岁",直接封号。这不是科幻片开头,是Meta本周官宣的新政策。

导读

打开网易新闻 查看精彩图片

Meta宣布启用AI视觉分析系统,通过身高、骨结构等"视觉线索"识别未成年用户。公司强调"这不是人脸识别",但技术细节和监管压力之间的张力,让这件事变得微妙。新墨西哥州刚罚完3.75亿美元,这套系统是真能保护儿童,还是另一场公关自救?

一、技术拆解:AI到底在看什么

Meta的博客说得很细:系统扫描照片和视频,抓取"身高或骨结构"等视觉线索,估算用户大致年龄。关键声明反复出现——"这不是人脸识别","不识别具体个人"。

技术逻辑是组合判断:视觉线索+文本互动分析。AI会翻遍你的帖子、评论、简介、 caption,找生日庆祝、年级提及等上下文信号。两种数据叠加,"显著提高识别和移除未成年账号的数量"。

目前这套系统只在部分国家运行,Meta称正推进更广泛部署。未来还要扩到Instagram直播和Facebook群组。

这里有个产品设计的微妙之处:Meta刻意把"骨结构分析"和"人脸识别"切割开,可能是为了规避生物识别数据的严格监管。但用户体感上——被AI判定年龄并封号——差别很大吗?

二、触发机制:从怀疑到封号的链条

流程设计是防御性的。一旦AI判定"可能未成年",账号直接停用。用户要走一遍年龄验证流程,自证年龄才能保住账号,否则删除。

这个设计把举证责任完全甩给用户。误判成本很高:一个25岁的矮个子成年人,或骨架偏小的用户,可能被系统标记,然后被迫提交证件自证。

产品视角看,这是典型的"平台免责优先"架构。Meta要的是"已采取合理措施"的合规记录,至于用户体验摩擦——那是用户自己的事。

三、时间线:罚款之后的三周

announcement的 timing 很难忽视。三周前,新墨西哥州陪审团刚判Meta支付3.75亿美元民事罚款,理由是"误导消费者关于平台安全性"和"置儿童于风险中"。法院还要求平台实施"根本性改变"。

Meta的回应是威胁关闭该州服务。现在推出AI年龄识别系统,很难不让人联想:这是技术升级,还是危机公关的标准动作?

原文提到,这起案件只是Meta和其他科技巨头面临的众多儿童安全诉讼之一。监管压力是结构性背景,不是单次事件。

四、产品逻辑的悖论

拆解Meta的动机,能看到几层张力

第一层是合规与增长的矛盾。13岁以下用户是明令禁止的,但平台需要用户基数。AI筛查是试图用技术手段解决政策困境——既声称保护儿童,又不显著收缩用户池。

第二层是技术宣称与实际效果的落差。"骨结构分析"听起来精准,但人体发育差异极大。同年龄个体的身高、骨架可以相差悬殊,误报率会是多少?Meta没给数字。

第三层最讽刺:这套系统要有效,需要用户上传足够多的真实照片和视频。但平台越鼓励分享,儿童暴露的风险越高。技术解决方案本身依赖问题的持续存在。

五、行业镜像:儿童安全成为新战场

Meta不是孤例。儿童安全诉讼正在重塑平台责任边界。从产品设计角度,这标志着一个转折点:年龄验证从"用户自报"转向"系统推断",从"事后处理"转向"事前拦截"。

但技术能走多远?骨结构、身高这些指标,本质是概率游戏。平台愿意接受多高的误判率,换取合规姿态?用户愿意为多低的误封概率,接受被AI审视身体数据?

Meta说"不是人脸识别",但监管机构和用户会买账这个区分吗?生物特征数据的定义边界,正在这类灰色地带被重新谈判。

结语

这件事的核心不是技术多先进,是平台责任的重构。当AI开始用骨结构判断人的资格,我们进入了一个新阶段:身体数据成为平台治理的入口,而"保护儿童"是最难反对的正当理由。

但技术中立是幻觉。选择用身高骨结构而非其他信号,选择把举证责任推给用户,选择在罚款后三周官宣——每个选择都是价值排序。Meta的新系统或许能过滤掉一部分未成年账号,但它同时建立了一种先例:你的身体特征,可以被平台用于身份判定,而你甚至不知道算法具体在看什么。

如果下一个被AI审视的指标不是年龄,而是情绪状态、健康状况、或政治倾向呢?骨结构分析的边界在哪里,谁来画这条线?