近日,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),明确了AI科技伦理审查的适用范围、实施主体、审查程序、监督管理等核心内容,同时从标准建设、服务体系、鼓励创新、人才培养等五个方面制定支持举措,为企业AI伦理风险防控提供了清晰的制度指引。《办法》的出台,标志着我国AI伦理治理进入制度化、规范化的新阶段。
近年来,以大模型、生成式AI为代表的人工智能技术快速发展,深度融入经济社会各个领域,催生了新业态、新模式,为经济社会发展注入了新动能。与此同时,AI技术发展也带来了隐私泄露、算法歧视、深度伪造、责任界定模糊等一系列伦理风险,对个人权益、公共安全造成了潜在影响。全球范围内,AI治理已成为普遍共识,欧盟、美国等多个国家和地区均已出台相关监管规则,推动AI技术规范发展。
本次发布的《办法》,立足我国AI产业发展实际,构建了系统完善的AI伦理治理体系,核心亮点突出。其一,实现了全生命周期全链条覆盖,适用范围覆盖AI科学研究、技术开发、产品应用的全流程,适用主体包括企业、高校、科研机构等各类市场主体,形成了全流程的伦理风险管控体系。其二,建立了分级分类审查机制,遵循“风险越高,审查越严”的原则,针对低风险、中风险、高风险、紧急风险四类场景,分别设置对应的审查程序,既实现了对高风险场景的严格管控,也避免了“一刀切”监管对行业创新的影响。其三,明确了高风险领域管控红线,针对人机融合系统研发、具备舆论社会动员能力的算法研发、涉及人身安全的高自主决策系统研发三类高风险AI活动,设置双重把关机制,明确审查不通过的项目不得立项、不得融资、不得上线,从源头防范重大伦理风险。其四,坚持规范与支持并重,在明确监管要求的同时,出台多项配套支持举措,明确中小企业可通过委托公共服务机构完成伦理审查,大幅降低企业合规成本,兼顾了行业安全与创新发展。
同时也应理性认识到,《办法》的出台是AI伦理治理制度化的重要起点,其落地执行仍面临多重现实挑战。首先,AI技术迭代速度快,AGI、具身智能等新技术、新场景持续涌现,伦理风险的形态与特征也在不断变化,需要监管制度持续动态适配,跟上技术发展的步伐。其次,伦理审查落地实操存在难度,AI伦理风险具备隐蔽性、复杂性,算法黑箱导致部分潜在风险难以提前识别与量化评估,同时不同行业、不同场景的AI应用,伦理风险类型与等级差异较大,对审查的精准化、差异化提出了较高要求。此外,大量中小AI企业的合规能力仍有短板,需要配套支持举措持续落地,帮助企业建立完善的合规体系,推动《办法》实现全行业覆盖。
总体而言,《办法》的出台,为我国AI产业发展划定了清晰的伦理边界,也为全球AI治理提供了中国方案。后续通过监管部门、企业、科研机构、行业协会等多方协同发力,推动《办法》落地执行,持续完善AI伦理治理体系,才能在创新与规范之间找到平衡,推动人工智能技术向善发展,更好地服务于经济社会高质量发展。
热门跟贴