澳大利亚去年12月实施的全球首个社交媒体禁令,正在遭遇一场尴尬的"执行溃败"——法律生效四个月后,超过60%的16岁以下用户依然活跃在各大平台。当英国政府还在权衡是否要跟进时,这份来自前线的真实数据,或许能让决策者重新思考:技术禁令的边界到底在哪里?
一场"纸面胜利":禁令生效后的真实图景
2025年12月,澳大利亚成为全球首个立法禁止16岁以下青少年使用社交媒体的国家。这项覆盖TikTok、Instagram、YouTube等10大平台的禁令,曾被视作保护未成年人数字权益的里程碑。
然而,莫莉·罗斯基金会(Molly Rose Foundation)今年3月12日至31日进行的在线调研,撕开了政策光鲜的表象。数据显示:53%的未成年用户仍在使用TikTok,53%仍在刷YouTube,52%的Instagram账号依然活跃。更关键的是,这些并非新注册账号——它们大多是禁令生效前就已存在的老账户。
平台的执行力度同样堪忧。调研发现,三分之二(约66%)的YouTube用户、61%的Snapchat用户、以及60%的Instagram和TikTok用户表示,平台并未主动关闭他们"理应被禁用"的账号。法律要求的"清退存量、封堵增量",在现实中变成了"既不清理旧账,也难阻止新户"的双输局面。
这里需要厘清一个技术细节:澳大利亚禁令的核心机制是年龄验证(age verification),而非简单的年龄声明(age declaration)。理论上,平台需要通过第三方验证或生物识别技术确认用户年龄,但显然,这套系统存在明显的漏洞——要么验证流程被绕过,要么平台缺乏动力严格执行。
绕过禁令的三条暗道:孩子们比监管者更懂技术
禁令失效的背后,是未成年人展现出的惊人"技术韧性"。根据多方观察,目前至少存在三条主流绕过路径。
第一条是虚拟专用网络(VPN,即虚拟专用网络)。通过切换IP地址至未实施禁令的国家或地区,用户可以完全规避平台的地理围栏检测。澳大利亚虽在讨论VPN禁令,但技术上几乎不可行——VPN流量加密后,ISP(互联网服务提供商)难以区分正常流量与规避流量,全面封锁将误伤大量合法商业用途。
第二条是账号共享与代注册。青少年使用父母、兄姐或其他成年人的身份信息注册账号,已成为公开的秘密。年龄验证系统再精密,也难以穿透"家庭内部授权"这层社会关系。更极端的案例中,甚至出现了专门面向未成年人的"代注册黑产"——成年人批量注册账号后出租给青少年使用。
第三条是平台自身的"选择性失明"。调研中高达60%以上的用户声称账号未被关闭,暗示平台可能采取了消极执行策略。这背后的商业逻辑并不复杂:青少年是社交媒体最核心的增长引擎之一。TikTok的算法推荐高度依赖用户行为数据的累积,16岁以下用户的"数字原生"特质使其内容消费和创作活跃度显著高于成年群体。严格执行禁令,意味着主动放弃这一高价值用户群。
一个值得玩味的细节是YouTube的特殊处境。作为谷歌旗下平台,YouTube在澳大利亚同时承担教育、新闻、娱乐等多重社会功能,其内容生态的"公共基础设施"属性,使得全面封禁未成年用户面临更大的舆论反弹。这或许解释了为何YouTube的"清退率"在调研中表现最差——三分之二的违规账号仍在运行。
英国的两难:跟进的政治诱惑与执行的现实骨感
澳大利亚的困境,正成为英国决策者的前车之鉴。英国政府目前仍在"考虑"类似禁令,但立场已出现微妙松动——从早期的积极倡导,转向更为审慎的评估。
这种转变有其政治逻辑。英国工党政府面临的双重压力在于:一方面,青少年心理健康与社交媒体成瘾的关联已成为跨党派共识,"保护儿童"是几乎零风险的道德高地;另一方面,澳大利亚的实证失败提供了现成的"甩锅素材"——若禁令注定流于形式,强推立法反而可能暴露治理能力的短板。
更深层的张力在于技术治理的范式之争。澳大利亚模式代表"平台责任"路径:通过法律强制平台承担年龄验证义务,失败则处以巨额罚款。但这条路径的隐形成本被低估了——年龄验证技术的误报率(将成年人识别为未成年人)可能排斥合法用户,而生物识别数据的收集又引发隐私权争议。法国近期推动的15岁以下禁令,甚至将矛头指向"美国平台"和"中国算法",折射出数字主权博弈的复杂维度。
英国的犹豫,也可能源于对替代方案的探索。与澳大利亚的"一刀切"禁令不同,部分政策研究者更倾向于"分级治理"——例如限制特定功能(如无限滚动、算法推荐)而非全面封禁,或要求平台开放API(应用程序接口)供第三方家长控制工具接入。这些方案的执行复杂度更高,但规避了"全面禁令全面失效"的尴尬。
被忽视的第三方:家长、学校与数字素养的缺位
现有讨论的一个盲点,是将博弈简化为"政府vs平台"或"监管vs技术"的二元对立。但澳大利亚调研揭示了一个被压抑的事实:大量未成年人使用社交媒体,恰恰是在家长知情或默许的情况下发生的。
账号共享现象的背后,是家庭数字治理的普遍失效。许多父母自身就是重度社交媒体用户,缺乏限制孩子使用的道德权威;另一些家长则将手机和平板视为"电子保姆",主动用屏幕时间换取个人空间。禁令将责任完全转嫁至平台,客观上为家长卸下了教育义务——"既然法律禁止了,我就不用管了"的心态悄然蔓延。
学校的角色同样尴尬。数字素养教育在多数国家仍停留在"网络安全"的浅层说教,未能帮助学生建立批判性的媒介使用能力。当青少年通过VPN绕过禁令时,他们展现的技术能力恰恰说明:现有的教育框架,既未能培养健康的使用习惯,也未能提供替代性的数字社交方案。
莫莉·罗斯基金会的调研背景值得注意——该基金会以一位因网络霸凌自杀的16岁女孩命名,其使命直指社交媒体与青少年心理健康的关联。但即便是这样立场鲜明的倡导机构,其数据也显示:禁令的符号意义大于实质效果。政策制定者需要回答的问题是:当法律无法抵达执行层面时,其存在本身是否仍有价值?还是反而制造了"问题已解决"的虚假安全感?
全球实验的下一阶段:从禁令到架构
澳大利亚的"失败"并非终点,而是全球数字治理实验的关键数据点。目前可见的演进方向有三条。
第一条是技术验证的升级。下一代年龄验证系统可能整合多源数据——不仅是用户提交的身份证明,还包括设备指纹、行为生物特征(如打字节奏、滑动模式)乃至跨平台数据关联。但这将触及隐私权的红线:当平台掌握足够数据以高精度推断用户年龄时,其监控能力也已远超"未成年人保护"的初衷。
第二条是责任主体的重新分配。部分政策提议将部分合规义务转移至终端——例如要求手机操作系统(iOS/Android)内置家长控制功能,或在应用商店层面实施年龄分级。这种"上游治理"模式的优势在于拦截节点更少,但同样面临越狱设备和侧载应用(即绕过官方应用商店安装软件)的规避。
第三条是内容而非访问的管制。与其禁止青少年使用平台,不如限制平台向青少年展示的内容类型和推荐机制。欧盟《数字服务法》(DSA,即数字服务法)已要求大型平台披露算法推荐逻辑,并为用户提供"非个性化"选项。这一路径的挑战在于:算法黑箱的透明度提升是缓慢的技术-法律过程,而青少年对"无聊"内容的耐受度极低——没有算法推荐的TikTok,可能迅速失去用户黏性。
英国最终的选择,将在很大程度上定义英语世界数字治理的基准线。若选择跟进澳大利亚模式,需直面同样的执行困境;若选择差异化路径,则需承担"对儿童保护不力"的政治风险。无论何种选择,澳大利亚的实证数据都已证明:在高度互联的数字生态中,单一国家的孤立禁令,难以对抗全球平台的网络效应和技术弹性。
当60%的禁令目标用户依然活跃在平台上,我们究竟在治理什么——是未成年人的屏幕时间,还是成年人对"数字失控"的集体焦虑?当技术解决方案持续失效,是否意味着我们需要重新协商"童年"与"数字公共领域"的边界,而非简单地用防火墙将其隔离?
热门跟贴