“让青少年直接隔离于网络社交之外的家庭教育方法已经落后了,家长需要开放、宽容、有韧性地去认识新的网络环境的方法。”北京师范大学新闻传播学院党委书记、未成年人网络素养中心主任方增泉说道。

3月17日下午,北京师范大学发布《青少年网络社交指引手册》(以下简称《手册》),新京报记者对话《手册》编写组组长方增泉,理清青少年使用网络社交媒体的行为界限。

打开网易新闻 查看精彩图片

北京师范大学新闻传播学院党委书记、未成年人网络素养中心主任方增泉。 受访者供图

梳理青少年网络社交七大风险点,用典型案例提供可操作的指引

新京报:《手册》最大的特点是什么?

方增泉:最大特点就是我们在调研青少年使用网络的过程中,梳理出七大风险并同时梳理出了典型案例,这些都是真实发生的案例。七大风险包括网络沉迷与时间管理风险、身心健康风险、网络欺凌风险、隐私与数据安全风险、非理性消费与经济风险、价值观与认知发展风险以及现实社交能力退化风险。

我们还根据梳理的真实案例,从个人、家庭、学校和社会几方面提供有效的应对策略和指引,形成了可操作、简单可行的建议。

新京报:作为国内首个青少年网络社交指引手册,它和之前关注青少年群体网络素养的手册或报告有什么区别?

方增泉:我们十多年来一直做青少年网络素养的调研,也确实发现基本数据越来越清晰了,但如何让每个孩子成为网络的主人,需要有具体的策略和方法。从理论认识上、情感调控上、行为改变上,让青少年在网络空间中提高能力,即提升他们的网络素养。

因此,《手册》特别强调用案例指导青少年,当自己遭遇类似情况时如何应对,如何求助家长和老师,让它具备可操作性的特征。我们下一步会和一些互联网企业合作,让更多孩子们看到《手册》的内容。

在网络保护基础上给予青少年发展的路径

新京报:青少年在网络社交媒体中可能遇到一些风险,如何应对这些社交风险?是让孩子和互联网隔离,还是帮助他们提升媒介素养?

方增泉:从我们目前的研究来看,确实各界持有不同观点。澳大利亚、法国等采取的是刚性的约束办法,禁止或限制青少年使用社交媒体,这种刚性约束的效果还有待观察。

从我们国家的实践来看,从法律体系和规范的角度来说,我们建立了未成年人网络保护的法律法规和政策体系,在这种政策体系下,我认为还是要强调保护和发展并重。在保护的基础上发展,在发展的过程中保护,这是一个有效的、螺旋上升的过程,而不是单纯的、强制性的隔离。我认为,物理隔离的效果是很难达到理想效果,在保护的基础上给予青少年更好的发展能力、给他们赋能,是非常明确的发展路径。

新京报:家长把手机等电子产品从孩子手中“没收”的方法落后了吗?

方增泉:落后了。因为现在青少年使用媒介已经融入其学习、生活的方方面面,尤其是AI和大模型来了以后,好多孩子已经开始借助AI辅助写作文、写作业,如果家长不了解,单独进行物理隔离的话,可能反倒会影响孩子的发展,也会激发亲子关系和养育关系的矛盾。

家长需要持开放的、宽容的、有韧性的态度,去认识新的网络环境,尤其是AI带来的环境的变化。

大模型推动“未成年人保护模式”进入3.0阶段

新京报:目前互联网主要使用者还是成年人,也存在一些不适合儿童的娱乐产品,如何打造儿童友好的网络生态?

方增泉:“十五五”规划纲要中也明确提出要打造儿童友好的发展路径,从我们研究者的角度来说,儿童友好不是把儿童隔绝在一个封闭的保护环境里,他们要在和网络社会环境不断交互的过程中成长。因此,儿童友好的前提和基础是要推动儿童能力素质和素养的提升。

此外,家庭和社会是两个非常重要的支持系统,家庭要构建家庭的支持系统,社会要构建社会的支持系统,形成有效的生态系统。

新京报:我们在采访中了解到“青少年保护模式”的使用率不是很高,如何解决一些“青少年模式”不好用、偏低龄化等问题?

方增泉:这也是我们研究的一个重点问题。在2019年以前,对未成年人保护侧重于防沉迷,即叫“未成年人保护的1.0模式”。《未成年人保护法》和《未成年人网络保护条例》实施以后,强调了保护和发展并重,这一重要理念把未成年人保护推向了2.0模式,各个互联网平台都建立了未成年人模式的内容池。

但是,现在内容池的建设,无论从青少年的发展还是内容来说,与青少年的需求还存在非常大的差距,没有做到和不同年龄段的孩子精准对接。大模型的到来会推动未成年人保护向3.0模式建设,可以给不同年龄段的孩子推送个性化的内容。大模型同时也存在风险,这就需要我们在此基础上建设未成年人模式的应用层,确保他们看到的内容和资讯都是安全的,是符合其认知和行为规律的。

大模型作为底座,再为未成年人建立一个过滤层,不仅提供了个性化的内容,还形成了应用层的保护,目前我们正在和一些平台设计这一框架。

基于未成年人模式的3.0阶段,只要家长和孩子提供一个相对的年龄阶段,14至15岁或12至15岁,其推荐的内容是完全可以做到个性化的。这一过滤层不仅可以确保大模型没有虚假信息,还可以筛除不健康的信息和风险信息。

新京报记者 刘洋

编辑 缪晨霞

校对 付春愔