随着数字时代的不断发展,网络空间已成为公众表达意见,凝聚社会共识的重要场域。然而,性别对立、地域偏见等群体性对立现象一度愈演愈烈。为整治这一乱象,去年9月,中央网信办在全国范围内部署开展“清朗·整治恶意挑动负面情绪问题”专项行动,封禁了一批煽动群众对立的网络名人账号。与此同时,网络平台也积极行动起来。1月19日,小红书发布社区公约2.0,明确提出“反对制造对立”的倡导,并通过算法优化与用户共治路径应对治理挑战。

极端网络对立的蔓延,对个体权益与社会发展均会造成严重损害。从个体层面讲,人们长期暴露在对立言论与网络暴力中,容易产生焦虑、恐惧等心理问题。同时,与他人的网络观点分歧还可能影响彼此之间的关系。从社会层面看,极端对立会撕裂共识基础,使公共讨论异化为“非黑即白”的零和博弈,不同群体间的信任纽带随之断裂,社会协作成本大幅上升,甚至可能引发现实中的群体冲突。

此外,对立情绪还会挤压公众深度思考的空间。制造对立的内容往往以高度情绪化、非此即彼的结论迎合人们“认知省力”的本能,长此以往会导致公众怠于深度思考,社会也会逐渐丧失处理复杂问题所需的集体智慧。更为严重的是,当公共空间被偏激、恶意挑拨的声音占据,温和、客观、专业的声音便会被挤出讨论场,这种逆向淘汰会让公众产生“世界充满恶意”的错觉,甚至动摇对社会整体的信任。

挑动网络对立危害巨大,但治理却难以一蹴而就。网络对立的滋生蔓延,有着复杂的社会心理与技术逻辑。算法通过分析用户偏好持续推送同质化信息,屏蔽不同声音,将个体禁锢在“信息茧房”中,使个体视野和思维都被限制,偏见随之滋生放大。同时,“信息茧房”效应会促使持相似观点的群体聚集,从而进一步引发群体极化现象,使得原本温和的观点可能在群体内部不断地迎合与鼓励下变得极端。以男女对立问题为例,男女双方都认为自己看到的才是“真实”的世界,自己所持的观点才是正确的。在此基础上,群体内观点不断趋同,对外群体的诋毁则持续增加,甚至通过贬低、歧视外群体来强化群体凝聚力,最终激化矛盾。

此外,网络匿名性还会让个体在“群体外壳”保护下,更易释放攻击性。极端言论经“沉默的螺旋效应”不断放大并占据主导,温和观点被边缘化,最终导致标签化攻击盛行,将单一事件升级为群体对立。

面对网络对立的复杂性,小红书明确提出“反对制造对立”,倡导“真诚分享,友好互动”的社区价值观,并推进落实一系列治理举措,这既是平台履行主体责任的体现,也为网络空间治理提供了兼具温度与力度的实践样本。

当然,网络对立治理绝非单一主体的独角戏,而需构建“平台主导、用户参与、监管护航”的多元共治体系。从平台责任看,除了推进技术与机制创新,更需以明确的价值导向引领社区生态建设。从用户角度而言,应警惕恶意挑拨的观点,厘清正常观点交锋与恶意对立的边界——前者的本质是以“就事论事”推动形成共识,后者则是“以点带面”制造群体分裂,进而自觉拒绝标签化表达与极端言论。从监管层面讲,需以《网络信息内容生态治理规定》等法律法规为依据,强化对恶意制造对立行为的监管与追责。

网络空间不是“法外之地”,更不是对立撕裂的温床。整治恶意挑动对立、宣扬暴力戾气的行为,既要依靠技术算法的力量,也应引导用户参与共治,更离不开坚实的法治保障。期待更多平台切实履行主体责任,向挑动网络对立的乱象“宣战”,也期待每位网民保持理性,主动参与网络治理,共同守护清朗的网络空间。

(郭旨龙,系中国政法大学网络法学研究所教授)

来源:法治日报