欧盟调查人员今天甩出一份初步调查报告:Meta没做好年龄验证,13岁以下儿童能轻松绕过系统登录脸书和Instagram。如果最终坐实,罚款可能高达全球年营收的6%。
这不是小数目。按Meta去年1349亿美元营收算,6%意味着80亿美元级别的罚单。更麻烦的是,欧盟正考虑在部分成员国推行16岁以下社交媒体禁令——Meta撞上的可能是整个欧洲市场的政策转向。
事件还原:调查怎么走到今天
2024年,欧盟启动了一项针对儿童安全的广泛调查,核心问题是Meta是否违反《数字服务法》(DSA)。这部2024年全面生效的法规,把平台对未成年人的保护义务写进了法律条文。
今天的初步调查结论直指三个漏洞:
第一,年龄验证形同虚设。调查人员发现,13岁以下用户只需输入虚假出生日期就能注册,系统没有有效机制核实信息真伪。
第二,举报工具不足。平台上缺乏足够的渠道让用户报告未成年账户,即使有人举报,Meta也没有建立规范的后续处理流程。
第三,科学证据被忽视。欧盟委员会在新闻稿中明确批评:「Meta的评估与大量证据相矛盾,这些证据来自欧盟各地,表明约10-12%的13岁以下儿童正在使用Instagram和/或脸书。」
负责科技主权、安全与民主事务的执行副主席亨娜·维尔库宁措辞更直接:「Instagram和脸书在防止低于该年龄的儿童使用其服务方面做得非常少。」
Meta的回应是全盘否认。公司向多家媒体表示,平台明确仅限13岁以上用户,现有措施足以检测和移除未成年账户,并强调「持续投资于寻找和移除未成年用户的技术」,下周还将宣布「即将推出的额外措施」。
清单:五个关键事实
把这件事拆成五个要点,方便你快速掌握核心信息:
一、罚款上限是营收的6%,不是利润
DSA的处罚依据是全球年营业额,而非净利润。这意味着即使Meta某个季度亏损,罚款计算基数不会缩水。对比欧盟《通用数据保护条例》(GDPR)最高4%营收的罚款上限,DSA对平台违规的惩罚力度明显升级。
目前全球年营收6%的顶格处罚尚未真正落地,但欧盟去年已向亚马逊、苹果等巨头开出过DSA相关调查通知,Meta是首批收到初步结论的社交媒体平台。
二、10-12%的13岁以下渗透率来自欧盟多地证据
欧盟委员会引用的这个数据不是单点采样,而是「来自欧盟各地的大量证据」。Meta内部评估与这一数字存在明显差距——调查结论用了「相矛盾」和「忽视」这样的措辞,暗示公司可能选择性采信数据。
更关键的是后半句:「Meta似乎忽视了现成的科学证据,表明年幼儿童更容易受到脸书和Instagram等服务潜在伤害的影响。」这里把「知道风险」和「未充分应对」两个事实并置,为后续处罚奠定了主观过错的基础。
三、年龄验证的技术困境没有行业解
Meta目前依赖用户自报年龄,这是行业通行做法。但调查人员指出,这种模式「容易被绕过」。问题在于:更严格的验证意味着更重的用户摩擦——身份证上传?人脸识别?家长授权?每种方案都会牺牲注册转化率。
Meta声称下周公布「额外措施」,但欧盟调查结论已经定性现有系统失败。新措施能否满足监管预期,是接下来几个月的博弈焦点。
四、举报-处理流程的缺失比技术更难辩解
年龄验证可以推给技术难题,但「缺乏举报工具」和「没有后续处理程序」属于运营层面的明显疏漏。DSA对平台的要求包括:建立便捷的内容/账户举报机制,并对举报进行及时、有效的处理。
调查结论把这一点单独列出,说明Meta的内部流程审查可能存在系统性盲区——不是做不到,而是没做。
五、16岁禁令的立法动向让事态更复杂
原文提到,欧洲多国正考虑禁止16岁以下儿童使用社交媒体。这与DSA的13岁门槛形成张力:如果部分国家把合法使用年龄提高到16岁,Meta需要在同一市场内运行两套年龄验证标准,技术复杂度陡增。
更现实的威胁是政策示范效应。欧盟的执法动作常被其他司法管辖区借鉴,澳洲、英国等地也在收紧未成年人网络保护法规。Meta在欧洲的应对方式,可能成为全球合规的模板或前车之鉴。
商业逻辑:为什么Meta在这个问题上被动
从产品设计角度看,年龄验证是典型的「反增长」功能。每增加一道验证门槛,注册完成率就会下滑。对于依赖用户基数驱动广告收入的Meta来说,青少年市场既是当下的活跃用户池,也是未来的付费用户储备。
但监管环境已经变了。DSA把儿童保护从「企业社会责任」变成了「法律责任」,违规成本从公关危机升级为营收比例的罚款。Meta的困境在于:过去十年建立的全球统一产品架构,正在与碎片化的区域监管规则产生冲突。
下周即将公布的「额外措施」值得细品。如果仍是技术层面的渐进优化,可能无法平息欧盟的执法决心;如果涉及身份验证等重手段,又会影响用户体验和增长数据。这个平衡怎么找,考验Meta的产品决策。
实用指向:这件事为什么重要
对科技从业者来说,Meta案释放了两个明确信号:
第一,DSA不是纸老虎。6%营收的罚款上限加上初步调查的快速推进(2024年启动调查,2025年4月即出初步结论),说明欧盟监管机构对大型平台的执法节奏在加快。依赖「合规滞后」策略的公司需要重新评估风险。
第二,儿童保护正从「内容审核」扩展到「准入控制」。过去平台的核心义务是过滤有害内容,现在监管要求前置到用户身份核验。这意味着产品架构需要预留更多合规接口,技术债务的偿还成本会更高。
如果你在做面向未成年人的产品,或者用户群体可能包含未成年人,现在就该检查三件事:年龄验证的技术可靠性、举报渠道的完备性、以及举报后的处理闭环。欧盟的调查结论已经给出了检查清单,照着做比等着被罚划算。
热门跟贴