在当下科技革命与产业转型的浪潮中,人工智能技术作为核心驱动力,正引导全球文明经历一场根本性的转变。依托移动互联网、大数据、超级计算力、传感器网络和脑科学等尖端技术,人工智能呈现出深度学习、跨界融合、人机协同、群智开放和自主操控等一系列突出特性,这些特性正在对国家文化安全建设、治理体系变革以及国际格局变动产生深远影响。在此变革时期,我们必须全方位洞察人工智能对我国文化安全带来的机遇与挑战,主动识变、应变、求变,积极探索符合时代要求的治理新模式,进而为国家治理体系和治理能力现代化贡献新动能和新思路。

01

提高国家文化安全治理效能

国家文化安全关涉国家或民族的文化自主性、完整性和创新性,反映了该国文化在全球舞台上的地位、影响力和竞争力,是满足国家和民族发展需求的关键因素。随着人工智能时代的来临以及产业革新的持续进展,我国的文化安全治理正面临前所未有的发展机遇。这一趋势为提高国家文化安全治理的效率和效果注入强大的推动力。

数据驱动的智能分析能力使人工智能成为对海量数据进行深入分析和挖掘的有效工具,为文化安全治理提供广泛的数据支持。尤其是最新一代人工智能技术,通过融合多样的信息类型,并依托于大数据模型与强大的计算能力,能够对数据进行实时处理和分析,并迅速产出和发布结果。这种高效及时的信息处理方式极大地促进了文化传播的便捷性和文化安全治理的及时性。此外,新一代人工智能技术综合运用整合语言、文字、图片和视频等多源数据,能够为文化安全的决策制定提供强有力的数据支持。通过运用数据挖掘、机器学习、自然语言处理等先进技术手段,人工智能得以对与文化安全相关的数据进行细致分类、标注、归纳和推理,进而从海量数据中提取出具有重要价值的信息,帮助决策者更好地理解文化安全的现状和趋势,进而制定出科学合理的解决方案。

人工智能还可以用于对文化安全的实时监测和风险识别,有效提升文化安全治理的前瞻性和精准性。通过部署先进的算法和机器学习模型,人工智能系统能够不断从互联网、社交媒体以及其他数据源中收集信息,分析文化传播的趋势和模式。这种实时监测能力使得人工智能能够第一时间监测到可能对文化安全构成威胁的内容或行为。例如,它可以快速识别网络上的极端主义宣传、虚假信息传播、针对特定文化群体的不当言论等,并立即向监管部门或相关机构发出警报,从而使得响应措施更加迅速且精准。统计数据显示,截至2023年底,我国部署的人工智能系统平均每天能够监测并分析大约10万条与文化安全相关的敏感信息,其中约80%的信息被及时处理,有效地维护了国家的文化主权和尊严。总之,最新人工智能技术的整合应用使得智能预警和应急响应成为可能。依靠大数据模型和强大算力的支持,人工智能得以迅速识别并标记潜在的文化安全隐患,极大地提高了文化安全治理的主动性和针对性,为文化安全治理效能提升注入了强劲动力。

02

文化安全面临深层技术风险

技术发展的双刃剑特性在人工智能时代尤为明显。基于人工智能的算法权力代表了新的权力结构,依托这些算法的平台正在逐渐形成一种能够单方面施加影响的新势力。由于算法技术的复杂性和专业性,加之公共权力机构在授权和监管上的不足,以及当前对于算法治理手段的相对落后,这种算法驱动的权力正在迅速扩张。这一现象给文化安全治理带来了多重风险挑战。

“深度伪造”技术是伴随人工智能发展而出现的严峻挑战之一。该技术涉及运用人工智能算法生成高度真实的虚假图像、音频和视频内容,从而增强了虚假信息传播的隐蔽性和欺骗性。通过模仿名人或权威人士的言论和行为,“深度伪造”技术不仅可能损害他们的名誉,还能捏造出从未发生过的事件或情境,造成公众对实际发生事件的误解,并可能引发诽谤、欺诈和社会恐慌等一系列问题。此外,它还有可能成为虚假新闻产生和传播的催化剂,削弱公众对媒体的信任并操纵公共舆论。最近几年,利用“深度伪造”技术制造的新闻事件频发,以至于虚假内容和真实情况难以区分,对社会舆论产生了不同程度的负面影响。人工智能驱动的“深度伪造”技术,通过精准识别并针对目标国家社交媒体用户的心理弱点,为那些散播虚假信息者提供了更为精确的攻击手段。这极大地增加了信息过滤和鉴别的难度,并可能对社会和谐稳定造成干扰。

另一个严重问题是人工智能可能加重“信息茧房”效应并引发文化偏见。所谓“信息茧房”,是指人们在网络上选择性地接触和吸收信息,从而将自己置于一个狭小的信息空间内,难以获得多样化的观点。而人工智能的算法推荐系统可能会进一步加固这种“信息茧房”,导致用户只能看到与自己观点相符的内容,同时忽视或排斥与自己立场不一致的信息。这种现象可能引发几个问题。一是造成文化封闭化趋向。在“信息茧房”中,人们缺乏对多样化观点的接触,容易形成偏见和误解。二是容易导致文化误解和刻板印象加深。由于“信息茧房”中的信息是同质化的,人们的思维和观点也会变得封闭和单一。这会导致人们错失与多元观点进行交流的机会,从而加深对某些群体或事物的错误认知与固有偏见。三是群体观点极化。在“信息茧房”的环境下,个体或群体的观点容易走向极端并缺乏批判性思考。不同群体之间难以形成共识和相互理解,甚至可能引发社会撕裂。

“技术操纵”和意识形态问题亦是不容忽视的风险之一。算法是自动学习、自动决策的技术,但这并不意味着算法是“技术中立”的,算法的使用者、运营者赋予一定的目标从而发挥其效用。如果算法被有意无意地用于宣扬某种特定的意识形态,可能会对公众舆论产生操纵作用,引发多层面的意识形态风险。一方面,由于人工智能语料库的大规模流动、聚合和分析,可能导致前所未有的数据安全风险。这些风险涉及了数据输入、运算、存储与输出的全过程,还可能威胁到数据主权、网络安全,引发个人隐私保护的问题,甚至危及国家文化安全。另一方面,以ChatGPT为代表的生成式人工智能技术仍然主要由西方发达国家掌握,所需学习训练的“底料”也大多来自欧美国家,这很有可能导致该技术成为西方塑造主流思想、制造“认知陷阱”的新工具。这意味着,生成式人工智能技术有可能在不知不觉中传播和强化西方国家的价值观、思维方式、文化习惯等,对世界其他地区和国家的社会认同感、民族自信心以及文化多元性构成挑战。进言之,这种技术可能变成意识形态领域内的“特洛伊木马”,悄无声息地影响和改变全球文化格局。

03

加强制度体系建设

一是坚持规划引领,完善法律法规。加强前瞻布局,支持利用人工智能技术防范人工智能风险,积极推动人工智能治理相关技术的开发与应用,同时遵循敏捷治理和多维治理的原则,构建多方参与的人工智能治理体系。完善法规政策和行业规范,关注人工智能重点领域的安全应用,保障人工智能研发和应用过程中的个人隐私与数据安全,确保人工智能的安全、可靠和可控。强化人工智能技术伦理规范的制定与实施,保障在文化行业内的道德标准和社会认可度,进而同社会价值和人类尊严相吻合。

二是加强监督监管,坚决打击犯罪。设立专门的监管组织和管理体系,对人工智能技术的使用进行评估,包括对人工智能算法的训练数据、设计过程和输出结果进行全方位的动态审查和监管,确保算法的透明度和公正性,保障在文化领域的应用符合法律规范,防止技术被滥用于传播有害信息或损害他人合法权益。强化内容审核流程,构建高效的内容审核系统,对可能影响国家文化安全的内容进行周密检查,并进一步完善快速识别与违规处置响应机制。对于故意制造和传播违法违规内容的行为,应当依法予以严惩,以此建立强有力的震慑机制,警示潜在的违法者,保护公众免受不良信息的影响。

三是发挥技术优势,强化要素支撑。充分发挥人工智能的核心优势,推进文化安全治理向智能化、精细化和效率化发展。一方面,利用人工智能技术为传统文化产业注入新活力,促进传统文化的数字保存与继承。同时,运用机器学习和数据挖掘技术深入分析传统文化资料,如文学作品、音乐作品和舞蹈等,增进人们对传统文化的理解和鉴赏。另一方面,运用人工智能技术构建国家文化安全数据库,对相关数据进行系统性收集、有序整理和深入解析,对网络上的舆论动态进行智能化分析与预测,实现以智能化手段预测和防范国家文化安全方面的潜在风险。此外,依托人工智能对文化安全监测数据和反馈信息的深度分析,可以评估文化安全政策的执行成效,为政府政策的制定和优化提供重要参考。

四是加强人才培养,提供智力支持。一方面,加强人工智能技术的教育和培训。改进教育系统,把人工智能相关课程纳入学校标准教学大纲中,以塑造学生对该领域的基础认知和技能,培养一批具有人工智能理论基础和实践能力的青年人才。推动职业技能培训和终身学习体系建设,为在职人员提供专业培训和进修的机会,协助他们升级知识与技巧,满足人工智能技术广泛应用的时代需求。另一方面,推动跨学科合作,鼓励不同知识领域的相互合作与沟通,以此培育具有多元学科背景的综合型人才。比如,计算机科学、数学和心理学等不同领域的专家可以携手探索人工智能技术的进展。通过实施与企业合作的研究项目,将科研成果转化为具体的技术应用,并打造出一支拥有实战经验的人工智能专家团队。

五是推动全球治理,共同应对挑战。应加强信息共享、经验交流和合作机制建设,共同研究和制定相关政策规范,形成共识和合作框架,通过国际组织、论坛和峰会等平台,促进各国之间的对话与合作。设立国际监管组织和评审流程,共同制定人工智能在文化产业中的应用标准,明确其合法合规的范围和限制条件,确保人工智能应用不仅遵循国内法律法规,同时也符合国际准则。加强技术合作与创新,通过联合研究项目、技术转让和人才交流等方式,共同研发先进的人工智能技术,监督、侦测和预防文化领域的犯罪行为,加大知识产权保护力度,避免人工智能技术被误用和滥用。

(作者系东北师范大学政法学院冷战与当代国际关系研究中心研究员)