21世纪经济报道记者肖潇 北京报道
本届两会前后,多位教育界和法律界人士向记者反映,国内的未成年人网络监管需要加强。
“虽然现在App有未成年人模式,一些手机能一键开启,但实际青少年学生使用的不多,也不常见。”全国人大代表曾旭晴是福建一所小学的党委书记,她告诉21世纪经济报道记者,在基层教育一线工作多年,未成年人的上网问题长期困扰家长和学校。
在曾旭晴的调研中,许多孩子在手机里看到的内容仍与成年人无异。既因为社交平台没有统一的年龄核验系统、未成年人模式易被绕开,也有家长不了解规则、疏于监护的原因。
“像我们(小学)高年级的学生,一到寒暑假,都是直接拿爸爸妈妈的手机玩。”她说,也有家长在日常教育中存在管不好和管不了的问题,“就说孩子一定要带手机,他们管不了,让学校想办法。”
曾旭晴已经连续四年提交与未成年人网络保护相关的建议。她的感受是,尽管现有法规很多,但落地难题仍然严峻,家庭、学校和社会的协同保护也没有完全形成。
按时间线梳理,2020年修订的未成年人保护法,专门增加了”网络保护“专章。要求网络游戏必须有统一的未成年人身份认证系统,社交平台则要有时间管理、内容管理、消费限制;2024年,《未成年人网络保护条例》正式实施,进一步要求对未成年人有显著影响的平台,提供专门的“未成年人模式”;2025年,监管部门密集细化了多项非强制性标准,包括在智能终端嵌入一键全机开启的未成年人模式。
但不少从业者认为,不同于游戏,社交平台的未成年人年龄验证工作由平台自主实施,缺乏统一规范——这是正在全球推行的“年龄禁令”的核心措施。另外,网络内容分级、未成年人报告强制披露的要求比较笼统,导致平台执行参差不齐。
针对这些现实难题,曾旭晴提出一个建议:建立全国统一的未成年人网络保护报告平台,要求各个平台定期公开,披露未成年人使用情况与治理措施,以此引起社会关注。
曾旭晴还建议,加强向未成年人传播违法信息行为的打击力度,平台需要更多利用人工智能和大数据识别不良内容,如果相关管理责任没有履行到位,应依法追究平台责任。
如何定义和过滤未成年人网络不良信息的问题,在这两年变得急迫。去年百度副总裁13岁女儿就因追星“开盒”网友的事件,就引发了社会广泛讨论。未成年人因为线上社交矛盾,出现“开盒”“人肉搜索”“网络暴力”等行为,名誉权、肖像权与隐私权纠纷明显增加。
更沉重的现实警告是,不良信息可能成为“围猎”未成年人的诱饵。目前,国内头部短视频平台在开启未成年人模式后,账号会关闭“同城”“热搜”等入口,同时无法使用私信聊天功能,无法观看直播和打赏。
需要指出,虽然全球都在迎来更严格的未成年人监管浪潮,但严格程度面临很大争议。比如,社交平台是否应当强制身份验证,平台收集年龄数据会不会产生新的隐私风险?对未成年人关闭特定功能(比如评论区),会不会反而削弱他们的适应能力?在学界与产业界,这些具体措施还需要更多研究。
曾旭晴也强调,未成年人网络保护并不意味着把孩子完全隔绝在互联网之外,不能封堵,应该引导。她的建议是,从国家层面制定统一的儿童友好型智能终端标准,开发上网全程留痕功能,提供符合不同心理健康阶段的内容。
同时,平台、家庭、社会应当合力保护,尤其是家庭责任不能被忽视。“其实现在未成年人出现心理问题,许多根源还是出在家庭的监护人责任上。”曾旭晴认为,孩子的上网习惯往往与家庭环境密不可分,父母要自觉提升网络素养,主动教育引导未成年人健康上网。
热门跟贴