未成年人的健康成长关系到亿万家庭的幸福与安宁、中华民族的希望与未来。上海一中院官方微信公众号推出《春雨护苗》栏目,普及涉未成年人法律知识,呵护未成年人健康成长。
“网红儿童”摆拍、网络黑话泛滥、炫富拜金内容肆虐……这些可能影响未成年人身心健康的网络信息,终于有了明确的认定标准。
2026年3月1日,由国家互联网信息办公室、教育部、公安部等八部门联合发布的《可能影响未成年人身心健康的网络信息分类办法》(以下简称《办法》)正式施行。这是《未成年人网络保护条例》的重要配套制度,首次系统性地将“可能影响”未成年人身心健康的网络信息,划分为四大类、数十种具体情形,被称为未成年人网络保护的“负面清单”。
下面,我们将以“十个问答”的方式,为您全面解析这部新规的核心内容。
王茹雪
WANG RUXUE
未家庭
四级法官助理
法学硕士
答:《办法》解决的是一个长期困扰家长和平台的难题——那些“法律法规规定的违法信息之外”的灰色信息,到底该怎么管?
《办法》首次明确了“可能影响未成年人身心健康的网络信息”的定义:指除法律法规规定的含有危害未成年人身心健康内容的违法信息外,通过互联网发布传播的,可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等的信息。
通俗地说,违法信息(如淫秽色情、暴力恐怖)是“红线”,必须一律删除;而《办法》规制的这些信息,则是“灰线”——需要警示、限制曝光。
相关法条:《办法》第二条。
《办法》将可能影响未成年人身心健康的网络信息划分为四大类:
这四大类信息全面覆盖了未成年人行为、价值观、人格、隐私等核心保护维度。
相关法条:《办法》第三条至第六条。
答:第一类信息涉及面最广,也是最贴近未成年人日常上网风险的内容。《办法》第三条列举了13种具体情形,包括但不限于:
➣性暗示内容:带有性暗示、性挑逗等易使人产生性联想的。
➣网络暴力内容:存在指责嘲讽、贬低歧视等涉网络暴力不良信息的。
➣煽动对立:煽动人群歧视、地域歧视、对立冲突等行为的。
➣引发极端情绪:通过刻意刺激、恶意引导等方式,引发未成年人产生过度强烈或者持久的愤怒、恐惧、抑郁等极端情绪的。
➣危险行为诱导:存在不安全驾驶等危险动作,诱导模仿高风险行为、进入危险区域等可能损害身体健康行为的。
➣不良网络用语:通过谐音梗、缩写词、拆解字等形式传播不良网络用语的。
➣不良生活方式:宣扬未成年人抽烟(含电子烟)、饮酒、暴饮暴食、文身、不合理使用或者滥用药物等的。
➣非理性“饭圈”行为:诱导未成年人盲目追星、参与非理性极端“饭圈”行为的。
➣非理性消费:诱导未成年人进行充值、打赏等非理性消费行为的。
➣其他:宣扬违反校纪校规、教授制作伤害性手工、提供陪玩陪聊代练代打服务等。
相关法条:《办法》第三条。
答:第二类信息直指影响未成年人价值观塑造的核心风险。《办法》第四条列举了7种情形:
➣漠视生命:宣扬漠视生命、自我贬损等观念的。
➣炫富拜金:宣扬奢靡享乐、炫富拜金、消极颓废等不良价值观的。
➣畸形审美:宣扬畸形审美、低俗恶俗文化的。
➣伪科学:宣扬荒诞离奇、危言耸听等伪科学内容的。
➣不良交友观:宣扬不良交友、恋爱观的。
➣错误教育观:宣扬“读书无用论”“唯分数论”“唯升学论”等观念的。
➣其他:其他宣扬违反公序良俗和社会公德的不良价值导向的。
这些内容虽然不直接诱导具体的不良行为,但长期浸染会扭曲未成年人的是非观、价值观,是更为隐蔽的“精神污染”。
相关法条:《办法》第四条。
答:这是《办法》的一大亮点,针对近年来屡禁不止的“网红儿童”问题,《办法》第五条列举了8种情形:
➣摆拍演绎不良剧情:利用未成年人形象摆拍演绎含有不良价值观或者不当言行的剧情内容的。例如,让儿童扮演“小夫妻”拍短视频、让儿童演绎成人化的情感冲突等。
➣营销不适宜产品:利用未成年人形象展示营销不适宜未成年人的产品与服务的。
➣滥用未成年人声线:利用未成年人声线传播不良内容的。
➣恶搞博取关注:通过恶搞未成年人、利用未成年人打造争议人设等方式博取关注的。
➣长时间摆拍牟利:借未成年人在短视频中长时间摆拍积累人气、牟取利益的。
➣恶意测试:以不良方式或者目的对未成年人进行品行、道德方面测试的。
➣歪曲炒作违法犯罪:歪曲或者炒作涉未成年人违法犯罪行为的。
➣其他:其他不当披露和使用未成年人形象的。
这一分类填补了此前网络内容治理的空白,为网络平台与内容创作者划清了明确的边界。
相关法条:《办法》第五条。
答:第四类信息与《个人信息保护法》《未成年人网络保护条例》紧密衔接,《办法》第六条明确了3种情形:
➣未经同意展示低龄儿童信息:未经监护人同意,不当展示不满十四周岁的未成年人学习、生活等可能暴露未成年人个人信息的。
➣诱导孩子自曝隐私:诱导未成年人发布可能泄露本人或者他人个人信息的。
➣其他:其他不当披露和使用未成年人个人信息的。
相关法条:《办法》第六条。
答:不是全部删除,而是采取“防范抵制”与“显著提示”相结合的精细化治理思路。
首先,防范抵制。《办法》要求网络信息内容生产者和平台,对这类信息采取防范和抵制措施,避免影响未成年人身心健康。
其次,显著提示。对于确实需要发布传播的,必须在信息展示前,在明显位置作出显著提示。这就像给信息贴上一个“警示标签”,提醒家长和孩子:前方内容可能不适合未成年人。
这种管理方式避免了“一刀切”,在保证成年人可以正常浏览网络信息的同时,为未成年人架起保护网。
相关法条:《办法》第七条、第八条。
答:有非常详细的标准。《办法》第八条针对不同形式的信息,规定了具体的提示方式:
➣文本类:在文本的起始、末尾或者中间适当位置添加文字提示或者通用符号提示等标识。
➣音频类:在音频的起始、末尾或者中间适当位置添加语音提示或者音频节奏提示等标识。
➣图片类:在图片的适当位置或者在交互场景界面添加显著的提示标识。
➣视频类:在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可在视频末尾和中间适当位置添加。
➣虚拟场景类:在起始画面的适当位置添加显著的提示标识,可在服务过程中适当位置添加。
同时,网络产品和服务提供者应当为用户提供添加显著提示效果的标识功能,并引导和规范用户使用。
相关法条:《办法》第八条。
答:不会。《办法》第九条对此有严格规定:
第一,重点环节禁现。网络平台不得在首页首屏、弹窗、热搜、榜单、推荐、精选等处于产品或者服务醒目位置、易引起用户关注的重点环节,呈现可能影响未成年人身心健康的网络信息。这一规定针对当前各平台基于算法进行内容推送的模式,降低未成年人被动接触此类风险信息的可能性。
第二,算法推送受限。提供算法推荐、生成式人工智能等服务的,应当建立健全安全管理制度和技术措施,不得向未成年人推送可能影响其身心健康的网络信息。
第三,专属空间纯净。任何组织和个人不得在专门以未成年人为服务对象的网络产品和服务中,制作、复制、发布、传播可能影响未成年人身心健康的网络信息。也就是说,给孩子用的App,内容池必须是“纯净水”。
相关法条:《办法》第九条。
答:《办法》对家长而言,有三重“法宝”:
第一,维权有了“操作手册”。过去发现孩子接触不良信息,家长往往说不清“到底哪儿不良”,投诉平台也常被驳回。现在有了这份“负面清单”,家长可以直接对照清单条款进行投诉举报。
第二,“晒娃”有了“边界意识”。许多家长喜欢在抖音、朋友圈记录孩子成长,但《办法》明确规定了这种行为的边界,如果长时间摆拍积累人气、牟取利益,或拍摄内容不当,就有可能被纳入监管范围。
第三,教育有了“法律后盾”。除了违法信息之外,家长对可能影响孩子身心健康的“灰色信息”也要提高警惕,如果孩子浏览这类信息,要及时进行教育引导,避免给孩子带来不良影响。
相关法条:《办法》第三条至第六条(可作为投诉举报的直接依据);《办法》第十条。
文:王茹雪
值班编辑:卜玉
热门跟贴