中国政法大学比较法学研究院解志勇教授在2025年第2期《中外法学》发表论文《高风险人工智能的法律界定及规制 》,该文通过对人工智能风险的认知、评估及治理的深入分析,提出了一套具有针对性和实操性的界定维度、标准和规制方案,为我国人工智能立法和监管实践提供了有益的参考。

以下为小编对该文主要内容和核心观点的整理与综述:

解教授的文章首先指出人工智能的双重属性,它既是科技革命的重要驱动力,又可能对国家安全、社会安全和个人安全构成威胁。作者认为,人工智能风险具有可认知性、可描述性和可分析性,这为风险分级和法律规制奠定了基础。文章分析了欧盟《人工智能法》的风险治理进路,指出了其存在的问题,包括风险评估困难、风险分类遗漏、实施成本高昂以及立法话语差异等。

在此基础上,文章提出了“风险+情境融合治理”的进路,强调以回应规制理论和情境化方法论为指导,应对高风险人工智能系统的潜在风险。作者认为,这种进路能够提高风险治理的质效,并提出高风险人工智能系统的界定标准应基于三个维度:人工智能本体能力强弱、功能作用对象以及潜在致害程度。

文章详细讨论了高风险人工智能系统的规制原则与理念,包括合法性原则、科技伦理约束原则、技术治理原则,并倡导包容审慎与合作规制的理念。在合法性原则方面,强调实体合法和程序合法的重要性,确保高风险人工智能系统的应用得到法律的明确授权,并实施有意义的人工监督。科技伦理约束原则要求发展人工智能应坚持以人为本、智能向善,保障国家安全、社会公共安全和个人生命安全等。技术治理原则则强调利用技术工具对高风险人工智能系统进行全生命周期的治理。

文章还提出了高风险人工智能系统的情境化规制方案,建议以情境作为治理单元,以安全维护为首要目标,采取“行为规制+个体赋权”的立法模式,进行事前、事中、事后的全过程治理。作者提倡制定《人工智能安全法》,以实现对高风险人工智能系统的有效规制。在具体措施上,文章建议通过管理情境化具体清单、制定高风险技术标准、设置安全评估以及预防型备案制等方式进行事前规制;通过强化研发、提供、使用者的义务体系建设,健全风险监测预警、报告响应机制,建立科技伦理跟踪审查工作机制等手段进行事中规制;以及通过行政处罚、失职问责以及行政救济等形式进行事后规制。

文章最后强调,我国应坚持人工智能风险分级规制的思路,以“风险+情境融合治理”为指引,提出更具针对性和实操性的界定维度和标准。作者呼吁,未来我国人工智能立法应以情境作为主要规制单元,以重大安全维护作为规制目标,在促进人工智能科技进步的同时,筑牢全过程规制防线。