【副标题】渐进式治理范式的构建
【作者】房保国(中国政法大学证据科学教育部重点实验室、司法文明协同创新中心副教授,法学博士)
【来源】北大法宝法学期刊库《河南财经政法大学学报》2026年第2期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:当前全球人工智能统一立法的热潮,忽视了技术不确定性与法律稳定性之间的根本性冲突。基于技术哲学与制度理性的内在张力,揭示激进立法模式在本体论、目标论及方法论上的多重悖论,批判其引发的监管错位与创新抑制。通过剖析欧盟规制僵化与美国分散治理等域外实践,证成统一立法将付出高昂治理代价。主张我国立法应暂缓法典化模式,转而构建“时间—空间”弹性框架:在时间维度建立技术成熟度触发立法与反身性迭代机制;在空间维度形成国家元规则锚定与领域理性具象化的分层治理。法治智慧在于以制度谦抑性容纳技术不确定性,通过渐进式治理范式平衡创新激励与风险防控,为人工智能高质量发展提供法治韧性。
关键词:人工智能立法;渐进式治理;监管沙盒;法治韧性
目次 一、立法的本体论困境 二、立法的价值整合困境 三、立法的路径依赖困境 四、立法的域外实践镜鉴 五、立法范式的重构 六、结语
全球人工智能立法热潮的涌动,折射出技术治理时代的深层治理焦虑。一场以“规制未来”为导向的制度竞赛已然铺开,而急于借统一立法构筑风险屏障的集体冲动,恰恰暴露了法律面对科技革命的认知困局——以工业时代的传统规制工具,应对数字时代的颠覆性技术生态。立足技术哲学与制度理性的本质冲突,对统一立法模式的深度反思具有现实必要性。人工智能技术的核心特质在于其“未完成性”,技术范式的迭代尚未定型,算法权力的社会接受边界尚未形成共识,此时以刚性法典固化技术定义与责任框架,不仅可能因规则错配扼杀创新活力,更会造成法律解释体系与技术本体的结构性割裂。
更深层的治理悖论根植于价值目标的不可通约性,安全诉求与发展需求并非天然耦合,其背后潜藏着多重价值张力,统一立法以“安全优先”统合多元利益的尝试,暗含将复杂治理命题简化为技术管控的危险倾向。直面技术、伦理与监管的三重不确定性,中国立法者所需的并非立法效率的竞速比拼,而是立法哲学的自觉觉醒,唯有以战略耐心替代立法冲动,构建渐进式治理范式,方能在技术动态性与制度弹性的辩证互动中,培育兼具适应性与权威性的法治生命力。
一
立法的本体论困境
“人工智能的不确定性既是推动全球人工智能立法浪潮的共识性动因,也是引发各国立法实践森罗万象的分歧性诱因。”人工智能治理的困境,来自技术演进的不确定性与法律秩序对稳定性的内在要求之间的本体论矛盾。此冲突不是表象层面的“时间差”或“信息差”问题,而是扎根于技术理性和制度理性在范式上的断裂——前者遵循指数级增长、颠覆性创新的逻辑;后者依靠周期性更新且有可预期性的规范逻辑。当立法者试图通过确定性的规范框架对非确定性的技术系统加以约束时,不仅面临规制实际效果的消解,还会引起法律制度的本体性风险。
(一)技术动态性与法律静态性的内在矛盾
人工智能技术的本质是持续自我超越的“涌现系统”,其发展遵循非线性跃迁路径。深度学习模型通过参数规模的量级增长触发功能质变,生成式系统在数据迭代中涌现出超越预设目标的能力。这种演进模式使法律陷入定义困境:任何基于当前技术形态的概念固化,在规范生效时便已滞后于技术现实。法律文本的封闭性与技术演进的开放性形成结构性对抗:法律依赖明确边界以确立秩序,而技术通过突破既有范畴实现进化。
同时,法律归责机制的认识论基础与技术的“黑箱”效应存在断裂。传统侵权法、产品责任法以“行为—结果”的可追溯因果链为根基,要求精确识别过错节点与责任主体。深度神经网络隐层参数的演化具有不可解析性,其决策过程无法映射出清晰的法律因果关系。当自动驾驶系统因多个传感器数据起冲突而引发事故,或医疗诊断算法受对抗样本干扰产生误判时,法律没办法追溯具体的决策路径,也很难找准可归责的技术漏洞。认知上的鸿沟展现了法律与技术在知识生产逻辑中的差别:法律依托经验归纳与逻辑演绎形成确定性知识,而人工智能依靠概率关联和涌现学习生成非确定的产出。
技术的动态性对法律体系的冲击,更体现在规范效力的解构上。当生成式 AI 输出具备法律效力的合同文本,或智能合约自动实施跨境交易时,技术的“准立法”与“准司法”功能不断侵蚀法律专属范围。这种解构冲击着法律作为社会元治理系统的权威地位——算法凭借代码规则重塑行为范式,法律却面临着沦为技术理性实施工具的风险。在此情境下,统一立法试图以静态框架约束动态技术,实则陷入双重异化:既无法有效规制技术风险,又可能因过度干预阻碍创新,最终导致法律公信力与技术先进性的同步消解。
化解此矛盾需要回归法律的功能定位重构,法律不应扮演技术发展的规划师,而应成为技术与社会耦合的界面机制。这要求在认识论层面承认技术理性的不可完全驯服性,接纳法律作为“未完成方案”的开放性;在方法论层面构建反身性规范框架,通过监管沙盒等动态授权规则替代静态禁止条款,通过算法透明度分级义务等元规则替代具体行为指令。唯有将法律从“确定性供给者”转型为“不确定性协调者”,方能在技术风暴中守护人之为人的价值坐标。
(二)风险不可知性与规则预设性的认知鸿沟
人工智能风险治理的困境,源于其内在的“涌现性”和“次生性”与法律规则预设性之间的冲突。此两类风险具有动态生成与场景依赖特质,无法通过先验建模完全预判,而是在人机交互过程中逐步显现。传统法律规制依赖“风险—规则”的线性映射逻辑,立法者基于已知风险类型预设禁止性规范与责任框架,而人工智能风险的非结构化与跨域传导性颠覆了这一逻辑。以算法黑箱为例,“比起人类心智黑箱,对算法黑箱要求更高的透明度”,其决策过程的不可解析性导致法律归责所需的因果关系链条断裂。更复杂的是,单一技术风险可能触发多领域系统性危机——自动驾驶数据采集可能同时冲击隐私权、地理信息安全与市场竞争秩序,使法律试图构建的“风险清单”模式陷入认知危机:将流动的技术生态简化为静态分类表,既低估技术演化的混沌性,又高估人类理性的预见能力。
法律对确定性的追求,使其天然倾向构建封闭规则体系,而人工智能风险的不可知性要求规则保持动态开放性,二者形成深层张力。其一,规则滞后性。立法周期与技术迭代速率存在数量级差异:生成式 AI 从研发到商业化仅需数月,而法律修订需经历漫长程序,耗时数年,导致法律文本生效时其规制的技术形态可能已被新一代范式取代。其二,解释论失效。法律解释依赖既有规范涵摄新事实,但人工智能不断挑战法律基本范畴。例如,要求生成内容披露训练数据来源的规则,在合成数据技术普及后丧失可执行性;算法透明义务在联邦学习等隐私保护场景中,可能与保密需求直接冲突。
更需警惕者,乃基于已知风险构建的规则体系可能引发认知路径依赖,形成三重治理悖论。第一,目标置换效应。立法者为追求形式完备,将资源集中于已识别的数据泄露等风险类型,却忽视了模型自主性导致的指令规避等新兴风险。第二,创新抑制循环。严苛的合规要求迫使企业将资源投向风险规避而非技术突破,如为满足内容安全审查而过度清洗训练数据,导致模型认知能力退化。第三,系统性风险相关的盲区。规则锚定使监管者陷入局部风险防控当中,失去对技术生态整体演变的洞察力,当法律把重点放在数据采集规制上时,可能会忽略因合成数据引起的版权重构难题。
摆脱当前困境,需要重新构建法律和技术的关系样式。一是从确定性预设衍变到反身性调适,法律应舍弃充当“终极风险目录”的角色定位,取而代之建立触发式响应机制,借助技术成熟度评估动态启动规制流程,采用监管沙盒对规则适配性进行测试;二是从全域统一过渡到领域理性,在医疗、金融等高危领域设定具象规则,而在创新密集型领域还是保留原则性指引;三是从规则锚定到元规则构建,将立法的聚焦重点转移到风险动态监测报告义务、跨部门协同治理流程等程序性框架上,为技术发展留存规范的弹性空间。
(三)技术异质性与立法统一性的结构冲突
人工智能技术体系是多元范式并存的非均质系统,其内部存在符号主义(逻辑推理驱动)、联结主义(神经网络架构)与行为主义(环境交互导向)等迥异的技术范式。通用大模型追求认知泛化能力,垂直领域 AI 聚焦专业场景优化,具身智能则强调物理世界的嵌入与交互,此三类技术的内在逻辑、发展轨迹及风险生成机制具有差异。
首先,逻辑冲突。符号主义系统依赖预设规则的可解释性,而联结主义模型通过数据训练涌现不可预测的功能,二者对“透明度”“可控性”等法律要求存在冲突。其次,发展异步性。通用人工智能的技术突破可能引发跨领域连锁变革,而垂直领域技术迭代则遵循行业特定节奏,统一立法的静态框架无法适配异步演进的技术生命周期。最后,风险异质性。通用系统的风险源于认知泛化偏差,垂直系统的风险则集中于领域专业性失效,具身智能更涉及物理安全与伦理决策的双重挑战。强行将异质技术纳入单一法律框架,必然导致结构性规制错配——对规则驱动的专家系统约束不足,而对具身智能等新兴技术过度干预。
技术异质性更深层地体现在社会化场景的实践理性差异之中,人工智能嵌入社会系统的过程呈现毛细血管级分化,不同领域形成独特的价值排序和规制需求。医疗领域的核心诉求是生命尊严保障,算法决策需平衡诊断效率与误诊责任;金融领域的规制要害在于系统性风险防控,需重点约束算法同质化引发的市场共振;创作领域的争议焦点是知识产权体系重构,需在数据训练与版权保护间寻找平衡点。法律若忽视领域理性的不可通约性,以抽象统一的“安全”“透明”原则覆盖所有场景,将导致规则与实践的深度脱嵌——不仅是技术适配失效,更是法律正当性基础的消解。
统一立法框架的结构性缺陷,进一步表现为责任配置的范式冲突。传统法律以“行为—责任”的线性因果关系为归责基础,但人工智能在多主体协作中形成责任弥散:开发者承担算法设计缺陷责任,但神经网络的涌现特性使缺陷认定超越传统产品责任范畴;使用者负有场景化监管义务,其过错认定需结合技术可控性与专业认知水平;系统自身的自主决策则挑战人类中心主义责任体系。统一立法试图以标准化责任条款覆盖异质主体,实则模糊了技术因果链中的权责对应关系。例如,“自动驾驶技术在不同阶段面临的风险类型不同,包括生产制造阶段的制造风险与测试风险,以及应用阶段的过失风险与故意风险”,要求自动驾驶开发者承担无过错责任可能抑制创新,而将责任完全转嫁给使用者又忽视了算法黑箱的认知壁垒。
化解冲突需重构分层协同的规制范式:在技术层建立“范式分类”框架,针对不同技术本质设定差异化透明度义务;在场景层构建“领域理性优先”原则,允许高危领域制定行业特异性规则;在责任层采用“动态权重分配”模型,根据技术可控性、主体专业能力与损害可预见性动态调整责任比例。唯有通过多层解耦的规制架构,法律才能超越统一性迷思,在技术异质性与制度稳定性间建立韧性联结。
(四)法律回应机制的适应性困境
人工智能技术的指数级发展对传统法律调适机制构成系统性挑战,暴露了法律系统在认知能力、响应速度与协调逻辑上的三重失灵。法律作为社会元治理系统的权威性,正遭遇技术理性的解构。
首先,法律解释机制的范式危机,传统法律解释依赖规范性涵摄,将新事实纳入既有规范框架评价。然而,人工智能从根本上动摇了法律的基本范畴:在著作权领域,生成式 AI 创作内容颠覆了“人类主体性”这一权利根基,使得原有“作者—创作行为—作品”三位一体的稳定链条被割裂;在侵权责任领域,自动驾驶的决策黑箱瓦解了“注意义务”的行为认定标准,传统过错责任以人类行为的可预见性与可归责性为前提,而算法决策路径无法被追溯,导致“过失”概念丧失解释力。此危机不仅是规则适用偏差,更是认识论层面的不可通约——当技术事实已挑战法律基本范畴时,解释论无法通过修补既有框架实现调适,且法律修订的制度性时滞进一步加剧了适应性困境。
其次,法律修订的民主程序性与技术迭代的指数级速率形成结构性冲突:生成式 AI 从研发到商业化平均周期仅数月,而立法修订需经历提案、论证、审议、表决等程序性环节,耗时常以年计,此种速率差使法律陷入“生效即过时”的循环困局。同时,立法者为确保体系融贯性,通常基于现有技术形态构建规范框架。而 AI 技术的涌现特性使预设框架在生效时即脱离技术现实,欧盟《人工智能法》起草期间被迫紧急增补通用 AI 条款即为明证。
再次,冲突协调中的价值位阶僵化亦暴露了结构性缺陷,法律应对权利冲突的传统方法是利益衡量原则,但在 AI 引发的价值冲突中常显不足。在数据训练与版权保护的冲突中,法律试图通过“合理使用”例外平衡利益,却忽视了爬虫技术无法识别著作权状态、海量数据授权成本将扼杀模型训练可行性的矛盾;在生物识别与隐私权的抵触中,“必要限度”“公共利益”等抽象比例原则无法回应技术特异性——人脸识别在安防场景的效率优势与在商业场景的隐私侵蚀具有不同风险权重,但法律因缺乏技术认知深度而适用同一标准,导致规制过度与不足并存。
最后,技术理性对法律系统的侵蚀已超越工具层面,直指其元治理地位。智能合约通过代码自动执行协议条款,在区块链场景中形成“代码即法律”的自治秩序;生成式 AI 输出的合同范本已在商事交易中实质替代法律文本;在线纠纷解决(ODR)系统依靠算法评估证据、输出裁决,其决策逻辑不公开且不可申诉。当公众更信赖算法的“效率”而非司法的“公正”时,法律作为最终争议解决机制的权威性将遭到消解,法律从社会规则的制定者降格为技术理性的执行工具。
总之,技术不确定性与法律稳定性的冲突,是两种秩序生产逻辑的对抗:技术通过持续突破“创造性破坏”的熊彼特式秩序,法律则通过规范延续构建“可预期性”的韦伯式秩序。化解冲突不在于寻求静态平衡点,而需在认知层面实现跃迁——承认技术理性的不可完全驯服性,接受法律作为“未完成方案”的开放性,探索制度与技术在动态适配中共同进化的新范式。
二
立法的价值整合困境
人工智能统一立法遇到的重要难题在于,其企图将安全与发展这两种具有竞争性的异质价值目标,强行整合进单一制度框架。安全将风险控制当作元理念,遵循“预设性合规”逻辑,强调依靠刚性规则、事前审批及严格责任构建起确定性秩序;而发展以创新激励作为驱动力,依照“实验性容错”理念,提倡采用规则留白、事后追责以及弹性空间来释放技术的潜在可能。此两类价值并非简单的政策偏好分布,而是以不同的治理时间观与制度理性为根基:安全立法追求的是“避免最坏”,发展立法意在“争取最好”。当统一立法企图将这两种不可通约的价值压缩进同一个规范文本时,不仅难以实现理论上的平衡,更在实践中衍生出目标消解、规则冲突与制度内耗,导致立法实效的结构性偏移。
(一)价值目标的不可通约性及其规范冲突
安全与发展的内在张力,是两种治理哲学在立法目的层面的分野。安全价值以“预防原则”为基石,将技术风险视为必须最小化乃至消除的负外部性,其规范表达依赖于禁止性清单、强制性标准及高额处罚等“命令—控制”型工具。发展价值则以“创新自由主义”为内核,将技术演进视为“创造性破坏”过程,其制度实现需依托监管沙盒、责任豁免、税收激励等“赋能—促进”型规则。欧盟《人工智能法》的规制哲学鲜明体现了安全优位的思路,其构建的“金字塔式”风险分级监管体系,试图通过算法透明度、数据质量及人工监督等刚性要求预设安全边界,却在实质上挤压了技术试错与范式跃迁所必需的制度空间。
“无论是统筹安全和发展,还是为了发展暂时放松安全监管,甚至有意将风险外溢,各国的法律文本与立法议程均在很大程度上将促进人工智能发展作为重中之重。”而当安全范畴从物理损害防控(如自动驾驶安全)扩展至数据安全、伦理安全、意识形态安全乃至国家安全时,其内涵的模糊性与外延的开放性必然要求监管范围的持续扩张与监管强度的无限提升。安全泛化迫使立法者将资源集中于构建防御性壁垒,而非培育适应性能力。我国现行规范将内容安全、算法安全、数据安全等多重目标捆绑立法,恰是安全概念过度的体现——当一部立法试图同时承担技术防火墙、数据主权卫士与伦理审查员等多重角色时,其规范效力必然因目标涣散而弱化,合规成本则呈几何级数增长,最终由创新主体承担,形成安全规制抑制发展动能的逆向激励。
同时,安全立法遵循“底线思维”,要求使用“必须”“禁止”“应”等封闭性、强制性的规范语句,以构筑清晰的行为预期与责任边界。发展立法则需秉持“天花板思维”,依赖“鼓励”“支持”“可以”等开放性、授权性的规范表述,以保留技术路线的多元性与探索空间。统一立法文本若强行并置此两类异质规范,将导致法律陷入语用学分裂与精神错乱:既宣称“包容审慎监管”,又规定“全流程安全审查”;既倡导“行业自律”,又设置“政府强制备案”。此种规范冲突不仅会削弱法律的行为指引功能,更可能使立法沦为政策宣示的修辞术,而非具有规范效力的制度工具。
(二)安全与发展冲突的制度实现困境
价值目标的不可通约性,在实践中转化为三重制度实现困境,深刻制约着统一立法的实效。
其一,规制工具的零和博弈与资源竞争。安全导向的强监管与创新导向的弱干预,在立法资源、行政注意力与合规成本分配上存在内在竞争关系。欧盟《人工智能法》对高风险系统设置了全生命周期监控义务,“高风险主要包括应用于现有欧盟产品安全法范围的人工智能系统,以及在生物识别、关键基础设施、教育和职业培训、就业、工人管理和自营职业机会、获得和享受基本的私人服务和公共服务及福利、执法、移民、庇护和边境管制管理、司法和民主进程等特定领域应用人工智能系统”,其巨额合规成本实质上构成了对中小企业的制度性驱逐,抑制了市场竞争的多样性与活力。类似地,我国对生成式 AI 内容安全的全流程管控,虽旨在降低虚假信息风险,却在执行中迫使企业过度清洗训练数据,导致模型认知能力退化,出现“安全合规性”与“技术先进性”悖反的局面。此现象揭示了统一立法难以兼顾两类目标的深层缺陷:法律资源向安全领域倾斜必然压缩发展空间,而激励性条款的扩张又会削弱风险防控的实效性。
其二,权利配置的结构性失衡与优先权之争。产业促进权与基本权利保障之间的冲突,是资源分配与利益享有的优先级之争。技术创新的数据自由流动需求与个人隐私的控制要求形成尖锐对立;算法透明义务所要求的披露细节,可能与企业的商业秘密保护直接冲突;产业政策鼓励技术集中以形成规模效应,又与反垄断法防范市场权力滥用的目标相悖。统一立法试图在单一文本中规定数据产权、算法知识产权与个人信息权益的边界,实则陷入“规范互斥”的困境——正如要求同一主体既担任运动员又担任裁判员,必然导致权责关系的功能性紊乱。此情形在跨境数据流动场景中尤为显著:数据主权要求本地化存储,而技术迭代依赖全球数据协同,法律强行弥合冲突只能产生妥协性方案,无法实现任何一方的制度最优解。
其三,治理目标的时序悖论与规模悖论。安全立法与发展立法遵循截然不同的时间逻辑与规模逻辑,技术迭代遵循“摩尔定律”的指数级加速,而安全认证需遵循渐进式累积,导致“审批即过时”的循环困局:企业耗费资源通过认证时,其技术方案已落后于市场主流。统一合规标准亦忽视了企业能力差异,头部企业可利用规模效应摊薄整改成本,而初创企业则因认证投入挤占研发资源,形成“扶持强者、淘汰新锐”的反向筛选机制,实质背离了促进产业创新的立法初衷。
(三)立法整合的尝试及其象征性治理陷阱
为化解价值冲突,立法者常诉诸“包容审慎监管”“平衡发展与安全”等原则性表述,试图通过抽象术语统合异质目标。而此立法策略在实践中易陷入“象征性治理”陷阱:在价值宣言层高扬“创新发展”旗帜,承诺减少行政干预、激发市场活力;而在规则操作层却通过准入许可、数据本地化、算法透明度等条款构筑“监管高墙”。此种表里割裂导致法律文本的价值宣示性条款因缺乏实施细则而成为政策修辞,而监管性条款则因脱离技术现实蜕变为市场壁垒。当企业发现合规成本远高于违规收益时,“策略性违法”将成为理性选择,最终使立法目标在实践层面落空。
欧盟《人工智能法》的艰难立法过程及其内部条款的紧张关系,正是此种整合困境的鲜活注脚。此法一方面在序言中强调“促进欧洲人工智能创新”“提升竞争力”,另一方面在正文中构建了极其烦琐且成本高昂的合规体系,尤其是对高风险 AI 系统的严格义务,被广泛批评为“创新的枷锁”。该法案试图通过“金字塔结构”(禁止性风险、高风险、有限风险、最小风险)对 AI 应用进行精确分类与规制,却忽视了通用人工智能(如大型语言模型)的“能力泛化性”使其可轻易穿透不同风险层级,导致分类系统失效,不得不临时增补针对通用 AI 的新规则,凸显了刚性结构应对技术动态性的无力。
(四)价值分层与差序治理的法治出路
破解安全与发展的立法整合困境,需超越“非此即彼”的二元对立思维,构建价值分层配置与差序治理的法治框架。承认法律的功能有限性,并非所有冲突都可在同一部立法、同一层级中得到完美解决。
首先,价值层级化。禁止算法歧视、防范生命健康直接风险等构成价值底线,应通过强制性规范固化为刚性约束,形成任何技术活动不得逾越的“负面清单”。此类规则聚焦于防范危害,其规范效力源于对基本权利的无条件保障。与此同时,发展目标则应转化为激励性政策工具,例如研发税收抵免、公共数据开放及创新导向的政府采购,而非直接规定技术路线的实体性法律规则。此类政策本质上是制度性留白,通过降低试错成本以释放创新动能。
其次,规范应体现差序化构造。国家立法层面仅需设定抽象原则与程序框架,例如算法透明度的分级原则、风险动态评估的程序要求,借由此类“元规则”赋予治理系统以弹性。具体技术标准的制定权,应授予行业监管机构与标准化组织。其可基于领域知识——如医疗诊断算法的临床验证标准、金融风控模型的压力测试规程——制定更具适应性的实施规则,从而形成“国家立法做减法、行业规则做加法”的差序治理格局。
最后,动态比例化。引入以技术成熟度为核心的动态评估与触发机制,让监管强度随技术可行性、社会容忍度及损害可逆性动态调适。对实验室阶段的颠覆性技术适用创新豁免原则,借助监管沙盒在可控环境内观察其演化路径;对规模化应用的中期技术采用协同治理模式,要求企业设立伦理委员会并公开影响评估报告;对产业成熟的基座技术则施加严格合规义务。“我国人工智能立法需要保持灵活性,小步快跑,避免‘一刀切’立法造成难以挽回的负面影响。”推动法律从“一刀切”的静态平衡器,转型为贴合实践的情境化动态调适系统。
总之,安全和发展目标的相悖情况及其制度困境,反映出工业时代法典化思维与数字时代创新生态的深层冲突。立法者需要放弃构建“万能法典”的美梦,转而以价值分层、规范差序和动态比例机制为途径,在秩序与变革的长久张力中,建立一个既可以守护安全底线,又能为技术演变保留发展空间的灵活韧性治理模式。这不是放弃法治理想,而是通过制度的自我谦抑,重获其在技术变革中的引导与规制能力。
三
立法的路径依赖困境
当前人工智能治理呈现的结构性错位,是传统监管范式对于技术革命适应滞后的典型表现。其根源并非制度设计的意外差错,而是起因于法律系统面对挑战性创新时的认知惯性,也就是将工业时代的线性治理逻辑强制应用于数字时代的智能技术生态,造成治理工具与治理对象之间出现断裂。当立法者试图凭借“旧规则”适应“新环境”时,制度文本就成了路径依赖的受累者,在技术自主性与规制强制性的对抗中逐渐失去规范活力。
(一)治理范式的不合理扩张与认知偏差
人工智能治理的定位偏差,首先源于传统互联网监管范式向技术治理领域的扩张。传统互联网治理以信息内容控制为核心,其制度设计遵循“主体—行为—责任”的线性归责逻辑,预设了行为可追溯性与因果链明确性。然而,生成式人工智能的特质在于通过隐层参数自主重构问题解决路径,其行为具有涌现性、不可溯性与非线性特征。将“内容过滤—平台问责”机制机械地移植至算法治理领域,实际上是将技术创造本体简化为信息传递载体,导致工具理性对创造理性的制度性压制。
此范式移植催生了深层认知偏差,即混淆技术缺陷与价值偏差。生成式模型的事实性错误输出等“幻觉现象”,本质是神经网络概率建模的技术局限,而非对意义系统的蓄意推翻。如果将技术不完善性等同于意识形态风险,则要求大模型完全规避事实错误。这种认知混淆引发了自我指涉的监管悖论:目标层面要求算法输出绝对“安全”却忽视技术可行性边界;工具层面本应投入算法可解释性研究的资源,被迫转向构建过度防御性内容过滤机制。其后果是技术优化被异化为价值驯化,合规性追求压倒实质性安全进步。
更深层的制度冲突源于治理工具与技术本质的不可通约性,互联网治理的实名认证、内容审核等核心工具,依赖对显性行为的追溯控制,而生成式 AI 的创造性源于隐空间中的参数演化,其决策过程无法映射为可监管的行为序列。传统禁止特定关键词等“开关式”禁令,在算法创作中已然失效——当模型通过数十亿参数重构语义关联时,简单的输入输出管控难以阻断非预期的价值表达。这种错位在技术哲学层面体现为还原论与整体论的冲突:监管者试图将技术系统拆解为可量化部件施加管控,却忽视模型整体涌现能力远大于部分之和。
范式错位进一步引发了治理资源的巨量耗散与创新路径的窄化,企业研发预算被迫从算法攻关转向合规性过滤系统开发;严苛的内容安全审查迫使技术路线选择趋同,规避伦理思辨、社会批判等具有文化建构潜力的创意领域,导致技术进化的达尔文主义被制度性修剪。破解此困境,需建立技术认知的双重分离原则:分离技术缺陷与价值风险,将算法幻觉等归入技术优化范畴;分离创造过程与输出管控,对模型研发适用“创新豁免”,仅对具体应用场景输出实施动态监管。监管者应从“技术警察”转型为“创新助产士”,构建监管沙盒等安全测试环境,“人工智能监管沙盒为人工智能系统提供者和主管机关等提供具体可控的环境,为测试创新性人工智能系统的性能、安全性以及潜在影响等提供现实可能”,使技术风险在受控空间中自然暴露并定向修复。
(二)全流程监管的自我消解悖论与“制度父爱主义”
人工智能治理中的全流程监管样式,试图采用覆盖从研发到应用全链条的管控手段规避风险,却因忽视技术演进的内在规律而陷入制度性自我消解状态。“全流程视域下,人工智能风险可类型化为算法设计风险、数据要素风险、平台控制风险、网络安全风险、自动决策风险等具体样态。”监管者试图借助确定性框架约束不确定性技术,反而弱化了技术自我优化的动态能力,且导致社会系统的适应性调节机制瓦解。
训练数据监管首先暴露了认知谬误。现行框架要求对训练语料做前置纯净度筛查,设定合法阈值作为数据准入标准。此量化管控误解了机器学习的规律:一方面,数据复杂性与模型进化存在辩证关系——模型能力进化依赖数据规模与多样性,而深度学习具有“对抗噪声数据”的固有特性,通过海量样本中的统计噪声训练反而提升模型鲁棒性。将数据偏差等同于价值污染,无异于要求疫苗在无菌真空中培育,既违背了免疫系统生成机制,更剥夺了技术应对现实复杂性的进化潜能。另一方面,“纯净性预设”本身是技术虚妄,监管者假定存在绝对“安全”的数据边界,却忽视数据价值的语境依赖性。机械地过滤将导致模型认知能力的历史虚无化,使技术沦为脱离现实语境的温室产物。
全流程管控更深层的危害在于瓦解技术自净的社会学习循环,传统技术治理依赖“问题暴露—制度回应”的修正机制,而生成式人工智能的容错率需在具体应用场景中被动态校准。这体现为以下两个层面。一方面,场景化容错阈值的不可通约性——医疗诊断容错阈值显著低于创意写作,法律文书生成的准确性要求远高于娱乐对话。统一监管标准强行锁死技术容错空间,剥夺了市场选择与社会评价的调节功能。当监管者代替用户定义风险承受度时,技术迭代便失去了关键反馈信号。另一方面,试错空间的压缩效应——技术进化依赖“创造性破坏”过程,即有缺陷的初级应用触发用户反馈、伦理争议与市场淘汰,推动技术定向优化。全流程管控以事前审批替代事后追责,使技术缺陷在监管真空密封下隐性积累,最终以系统性危机形式爆发。
此范式隐含三重“制度父爱主义”的危险预设:其一,知识论谬误,假定监管者比开发者更懂创新边界,而算法黑箱的存在使技术内生风险具有不可解释性,即便设计者也无法完全预判系统行为;其二,价值位阶垄断,预设监管者比用户更懂风险承受度,但公众对自动驾驶的容错率随技术普及逐步提升,而统一安全标准可能剥夺弱势群体的技术普惠权;其三,进化理性否定,忽视社会系统的自适应智慧——技术伦理规范本应在多元主体博弈中涌现,例如开源社区通过争议达成算法公平性共识等,但全流程监管将动态协商压缩为行政指令,导致规范与实践持续脱节。
破解全流程监管困境,需实现三重转向:从数据管控到能力培育,将监管重点从输入数据纯净度转向模型抗干扰能力验证,通过注入对抗样本测试培育技术在复杂环境中的生存力;从全程介入到节点放行,在训练阶段保留数据多样性,在应用层按领域风险分级实施差异化监管;从行政主导到多元共治,建立“监管沙盒—行业标准—用户评级”的协同体系,使规范演进与技术进化同步共振。
(三)政策试验空间的系统性压缩与制度收敛效应
人工智能治理的主要矛盾表现为技术演进的不确定特性与制度建构的稳定特性之间的张力,过早推动人工智能统一立法,会挤占本应借助区域性、行业性试验持续优化的政策学习空间,致使治理体系失去应对技术突变的应变韧性。
地方立法和行业规约构建起技术治理不可缺少的制度缓冲带,“我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》为这一新兴领域的国家及区域性立法工作提供了探索经验和有益参考”。《深圳经济特区人工智能产业促进条例》将准入禁令替换成“创新容忍度”,允许企业在风险可控的情形下探索算法应用边界;“以上海自贸区为试点探索建立中国式‘监管沙盒’,形成分业监管框架下的‘双峰’监管模式”,上海自贸区通过监管沙盒建立起动态算法审计标准,构建风险分级和监管强度的弹性耦合机制。这些区域性试验的本质是治理范式的试错探索——利用小范围、高频率的政策更替,积累技术风险与社会接受度相契合的经验,其价值不只是提供具体的规则样本,更在于揭示技术社会化进程中不可预见的冲突节点。
统一立法隐含的制度收敛风险,进一步表现为规则弹性丧失与创新可能性抑制。立法试图固化技术定义与风险图谱,却忽视了技术路线的分岔演进,使法律陷入持续修订的恶性循环,反证技术不确定性无法通过概念穷尽来消解。强行落实统一标准就像给技术演进修了条单行道——当自动驾驶算法被迫去符合全国性安全阈值时,特定场景的创新性尝试(如沙漠矿区无人驾驶)也许会因不满足通用准则而夭折。从技术史来看,极具颠覆性的创新往往诞生于现有规则的边缘区域,而过度突出“合法性”将引发技术路线的趋同化。
技术治理应依照时空相对性原理,法律稳定性的实现依靠制度弹性的留存。经典物理学式的治理思维策略——试图借助精确界定技术定义、责任范围以及风险等级来构建确定性的秩序——在量子化的技术现实中注定会失效。恰似海森堡测不准原理所显示的:精确地测量粒子位置肯定会引起其动能的失控,监管者过分追求技术定位的“精准状态”,实际上弱化了技术动态演化的可能性空间。技术的社会化进程本质上是时空耦合的产物,北京中关村的算法伦理争议与深圳前海的同类问题可能因地域文化差异呈现迥异的解决路径,而统一立法强行剥离了技术的地方性语境。
破解政策试验空间压缩困境,需构建分层化授权框架:在纵向维度上,国家立法仅需设定禁止算法歧视等价值底线,将具体标准制定权授予省级人大,借鉴德国“实验性条款”机制,允许地方政府在脑机接口等重大技术领域设立临时性特别法;在横向维度上,建立“监管沙盒联邦制”,由国家网信办统筹区域沙盒数据互认,允许测试结果跨区通行,避免重复审批;在动态维度上,立法引入“日落条款”,强制要求高风险规则定期接受技术可行性评估,使法律从静态文本转型为“活的制度有机体”。
(四)控制论范式的认知局限与生态论转向的困境
人工智能治理的路径依赖困境,根源在于控制论范式的哲学局限——将技术视为可精准调控的机械系统,试图通过“输入—输出”的线性监管函数实现确定性秩序。此范式忽视了一个根本现实:人工智能是技术、制度与社会互构的复杂适应系统,其演进具有涌现性、非线性与自组织特征。法律规则若仅充当技术有机体的“机械枷锁”,必将引发制度与技术进化脱节的系统性风险。破解之道在于转向生态论治理观,“生态理性是人与自然和谐共生的生态智慧及人类集体性自觉”。将法律定位为滋养创新生态的“气候系统”:既提供基础制度光照(价值底线)与降水(资源支持),更包容必要的技术雷暴(试错风险)与枯荣周期(迭代成本)。
首先,该范式跃迁要求从本质主义到关系主义的认知转向。传统治理陷入“定义先行”的窠臼,执着于追问算法是否具备法律主体资格等形而上学问题,却遮蔽了技术社会化进程中的关系建构本质。生态论范式要求立法者实现:技术定位转向——放弃对技术本质的追问,聚焦“技术—社会”耦合关系的具体建构,例如自动驾驶责任分配不应取决于算法是否被定义为“驾驶员”,而应基于人机协同中的控制权重分布与风险收益比;监管逻辑转向——以“关系契约”替代“行为禁令”,例如深度合成技术治理重点不是禁止“换脸”,而是构建技术使用方与被影响方的权利义务对等框架,“提高公众对 AI 生成内容的辨识能力,增强对标识重要性的认识”。
其次,需从预防哲学到韧性哲学的范式升华。控制论范式的绝对安全幻想导致制度陷入过度防御陷阱,生态论主张以系统韧性替代预防主义,这要求:风险认知重构——承认技术缺陷无法完全消除,转而培育社会系统的适应性免疫力,例如针对深度伪造,与其强求平台100%拦截虚假信息,不如构建“辨伪—响应—修复”的三级韧性体系;容错机制设计——建立负反馈调节回路,例如在医疗 AI 领域,通过“非事故性损害豁免”制度允许一定范围内的诊断偏差,但要求将偏差案例转化为算法训练数据。
最后,需实现从立法中心主义到治理生态学的体系跨越。统一立法试图以法律文本垄断规则供给,割裂了治理生态的有机联系。生态论视野下,法律仅是治理生态的一个“物种”,需与行业标准、技术伦理、市场选择形成共生网络:规则群落建构——在医疗 AI 领域,法律退守为元规则制定者,而将具体标准交由医师协会、药监部门和医院伦理委员会动态制定,形成交叉反馈的“规则生命体”;能量交换机制——建立制度代谢通道,例如,英国监管沙盒将企业试错数据转化为规则优化素材,使行业实践与监管标准形成养分循环。
总之,从控制论向生态论的转型,是治理理性的范式变革。当立法者摒弃追求精密控制的“工程师思维”,转而习得培育生态平衡的“园丁智慧”时,才能真正实现技术安全与制度弹性的辩证统一。这种认知跃迁要求法律以“谦抑性”为根基——在时间维度为技术演进保留试错缓冲区,在空间维度为多元规则留出共生界面,最终在秩序与变革的永恒张力中,孕育出具有进化生命力的治理生态。
四
立法的域外实践镜鉴
全球人工智能治理的多元探索实践,为评判统一立法模式的有效性提供了天然的检验空间。不同规制范式的分野,不仅体现了地缘政治和产业战略的区别,更揭示出制度哲学上的重大选择。欧盟以《人工智能法》为标志的“秩序本位主义”、美国联邦层面立法克制的“实验探索方式”以及东亚尝试结合安全与发展的“整合主义举措”,组成了一幅检验激进立法代价的图景。域外经验显示,中国人工智能立法的智慧,并非参与此类“立法竞赛”,而在于从这些实践得失中汲取教训,探索一条符合技术演进规律和中国式现代化需求的渐进之路。
(一)欧盟范式:法典化雄心与创新现实的冲突
欧盟《人工智能法》是全球首个尝试对人工智能进行全面且统一监管的立法探索,其主要特征为构建起一个基于风险分级的金字塔式监管体系。该法案把人工智能应用划分成“禁止性风险”“高风险”“有限风险”和“最小风险”四个类别,并实施逐次递减的监管要求。此种“秩序本位主义”范式,体现了欧盟借助“布鲁塞尔效应”输出其数字规则霸权的战略考量,也就是通过确立严格的区域标准,影响全球市场规则走向,凭借制度优势弥补其在技术创新领域的相对滞后局面,而这种法典化的宏大叙事和人工智能技术的动态本质出现了尖锐矛盾。
首先,静态的分类框架无法适配技术的涌现态势与通用化趋势。法案起草的时候主要针对专用型、功能特定的人工智能系统,但生成式人工智能的迅猛发展,尤其是大模型展现的通用能力,使其能够轻松穿过预设的风险层级。而“通用模型带来了深刻的‘范式变革’,‘预训练+微调’成为人工智能发展的新范式,这引发了真正的通用性革命”。例如,一个原本为对话设计的通用模型,能被运用到医疗咨询或金融分析中,从而迅速从“有限风险”进入“高风险”范畴,造成监管分类体系失灵。这使得欧盟在立法进程临近结束时才匆忙增补针对通用人工智能的专门规则,反映出统一立法在面对技术范式跃迁时的结构性僵化。
其次,苛刻的合规要求实际上抑制了创新活力的释放,尤其对于中小企业构成了制度性壁垒。法案对“高风险”系统实施了全生命周期的监管义务,包含严格的数据把控、细致的技术文档记录、突出的风险评估及人类监督要求。这些义务引发的巨额合规费用,迫使企业把大量研发资源从技术攻关调整到满足监管需求,造成了“合规比创新优先”的扭曲激励状况。尤其针对初创企业和中小规模企业而言,这些成本很难承受,排挤了其在欧盟市场的生存余地,造成了创新生态多样性的干涸。
最后,法典的刚性造成了“一生效就滞后”的悖论。立法程序历时逾三年的漫长审议周期,与人工智能技术的指数级迭代速度形成巨大落差。当法案最终生效时,其所依据的技术现实可能已被颠覆,其条款可能已成为制约新一代技术应用的限制。“《人工智能法案》立足于现有欧洲法律价值体系,无法妥当回应科林格里奇悖论式的挑战,因为其忽视了人工智能技术可能引发的深远社会变迁和人类价值重构。”这种刚性体系缺乏内置的适应性机制,难以应对技术“创造性破坏”带来的持续挑战。
欧盟的实践已然表明,试图借一部宏大明晰的法典文本毕其功于一役地化解人工智能治理难题,是“立法全能主义”的认知迷思。其直接引致的代价是,创新动能的抑制、产业竞争力的相对弱化,以及监管体系与技术现实渐趋脱节的潜在风险。
(二)美国路径:实验主义治理与规则市场的利弊
与欧盟构成鲜明对比的是,美国在联邦范畴实施了立法克制的“实验主义”途径。其未推出覆盖全国的人工智能法案,而是利用现有的法律权威(如《国防生产法》),在基础模型安全测试等关键领域规定底线要求,同时许可各州依照自身情形开展立法探索,形成了以“联邦底线+州级实验”为特征的分散化治理格局。
美国路径的优势体现为其制度的灵活性与对创新空间的保留,诸如加州、科罗拉多州、犹他州等各州,实施了不同侧重点的法规。例如,“加利福尼亚州作为位于技术创新前沿的关键州,于2024年通过了17项与人工智能相关的法律,涵盖深度伪造治理、训练数据透明、医疗场景中的人工智能提示义务以及生成内容的可识别性标识等关键议题”。这种“规则市场”许可政策创新在地方层面先去试验,其他州或联邦层面可吸收成功的经验做法,失败的教训被圈定在局部范围,避免了因“一刀切”而产生的系统性风险。
但是,该实验主义路径也面临着规则碎片化和司法管辖冲突的挑战。企业若于美国市场开展运营,可能要同时恪守数十个州各不相同,甚至相互冲突的人工智能法规,这引发了极大的合法复杂情形和不确定性。这种“胡乱拼凑”式的监管环境,虽然避免了因过度监管引发的抑制风险,但也存在增加交易成本,并可能会产生“竞相逐底”的问题,也就是部分州为吸引企业投资,过度降低了监管的门槛。同时,在联邦层面强有力的公民权利保护框架缺失的情形下,分散的各州法律也许不足以应对人工智能带来的大规模算法歧视或者隐私侵害等全国性、系统性风险。
美国的经验说明,渐进式、分散化治理模式在保障技术创新灵活性与适应性方面优势明显,但其取得成功的关键在于能否构建有效的机制,促进各州之间的协调及合作,在基本权利和安全底线上获得充分保障,以此在包容审慎和风险防控之间取得平衡。
(三)东亚困境:目标整合的尝试与制度性内耗
以韩国《人工智能基本法》为代表的东亚相关模式,尝试在单一法律框架内同时实现推动产业发展与防控风险的双重目标,即选择一条既重安全又重发展的“整合主义”道路。 “韩国《人工智能基本法》以‘发展与规制并重’为核心逻辑,既要抓住技术红利推动产业升级,又要通过法律框架防范风险、保障民生,同时在国际竞争中确立规则话语权,从而构建安全、可信、包容的人工智能社会。”这种立法尝试反映出后发技术国家期待在保障安全的同时抢占产业发展制高点的急切心理。
而这种硬性将不同价值目标耦合的尝试,在实践中往往引起立法精神的内部分裂与制度性内耗。产业促进条款倡导降低制度成本支出、简化程序环节、提供财税激励办法,以促进技术换代和市场应用拓展;而风险防控条款又引入安全评估、合规审查、准入许可等造成成本增加以及时间延长的程序。这两种逻辑于立法文本中并存,造成法规的执行者在实践中面临两难局面:过分看重安全会扼杀创新的动力,而过度偏向发展可能会造成风险监管被架空。其可能导致的结果是:促进条款会因为缺少可操作的实施细则,进而沦为政策宣示;而监管条款也会因与产业实际情况脱节,进而变成创新的阻碍。
更实质的问题是,该模式容易催生“认证文化”和责任悖论。强制性质的安全认证与评估程序,可能会诱导企业把资源汇集于获得一张合规证明上,而不是去进行实在的安全能力建设。认证证书在实践中可能被异化成责任豁免的“庇护符”,反倒掩盖了实际风险的慢慢积累。统一标准往往忽视了大企业和中小企业之间的能力差别,造成后者在竞争中处于更不利的位置,实际上造就了“扶持强者、淘汰新锐”的反向筛选机制,违反了推动产业整体进步的初衷。
东亚困境揭示出,在技术自身及其社会影响还存在巨大不确定性的时期,试图凭借一部法律去完美平衡所有存在冲突的价值和目标,是一种脱离实际的空想。这种“既要实现……又要达成……”的立法模式,经常造成规则体系内在矛盾和实际效能的相互抵消。
(四)比较视野下的治理哲学反思与中国选择
“发展中国家和发达国家的 AI 治理模式差异根源在于 AI 行业的垄断性和 AI 技术发展的阶段性,以及二者面临的主要发展问题的差异性。以中国为代表的重点安全风险治理模式是发达国家和发展中国家 AI 治理的中间模式。”域外人工智能治理实践显露的规制困境,从不同维度印证了激进统一立法的潜在代价。其共同教训在于未能正视技术不确定性的本质属性,仅凭工业时代成型的、自上而下且执着于确定性的法典化模式,去规制数字时代的颠覆性技术,这正是导致治理实效折损的根源所在。
第一,要摆脱“立法万能”以及“毕其功于一役”的思维局限。人工智能立法勿追求形式完备及体系的宏大,而要彰显制度在韧性、适应性及学习能力上的特质,立法应看成是开放、未完成的进程,并非封闭的终极产物。
第二,宜采用“渐进式”以及“场景化”治理思路。立法重心需从制定“人工智能基本法”,转向采用“核心原则立法+领域具体规则”的分层策略,国家先划定安全、伦理等价值底线,把众多具体的技术标准、行业规范交由监管机构、行业组织在实践中动态优化。
第三,须使“监管沙盒”等实验性治理工具充分发挥效能。开展特定领域、一定范围的政策试点,准予在可控环境中打破现有的法规界限,为规则创新提供可靠的测试数据,实行“干中学习”,让立法决策建立在实证基础之上,而不是纯粹的理论推演。
总之,“统一立法宜缓行”论点依靠域外经验获得了有力支撑,“尽管对于人工智能立法的讨论极为热烈,但绝大多数国家‘口惠而实不至’,并未在国家层面落实立法进程”,“人工智能综合性统一立法仍是‘显著例外’”。中国应防止采用激进的立法举措,通过对技术规律和治理哲学的把握,选用更具耐心、充满弹性、可唤起各方智慧的渐进式治理道路,坚守安全的最低界限,为人工智能的发展创新保留制度上的空间。
五
立法范式的重构
人工智能统一立法在本体论、目标论、方法论及实践论范畴均面临无法逾越的障碍。应对困境的办法,不是放弃规则构建,而是针对立法范式本身开展重构,也就是从追求形式统一和静态稳定的“法典化迷局”,转向培育具有动态适应和韧性发展的“治理生态学”。
(一)时间维度:建立法律与技术的共时性演进机制
针对“技术动态与法律静态”的矛盾,渐进式治理范式首先需在时间维度上重新构建法律和技术的关系,从“滞后追随”变为“同步演进”,创立一套可使法律规则随技术成熟度动态合理适配的触发与迭代机制,使制度具有类似有机体那样的学习和进化本领。
1.技术成熟度驱动的立法触发机制。法律介入的时机应由技术社会化的内在逻辑而非政治议程决定,应组建跨学科的技术评估机构,负责监测算力密度、社会渗透率、风险显性化等关键指标的工作。当技术从实验室原型迈向规模化应用阶段,其风险图谱和社会价值负载初步显露时,才可开启专项立法相关程序。例如,制定自动驾驶专项责任规则,不宜在概念验证阶段开展,而应在真实路测数据显示其事故率稳定低于人类驾驶员临界值时制定。这使立法成为技术社会化的“适应性框架”而不是提前限制,既防止过早调控扼杀创新的机会,又防止监管缺失造成系统性风险的累积。
2.监管沙盒的时空缓冲与压力测试功能。在技术混沌期与制度成熟期之间,可以设立风险可控的“政策实验区”。监管沙盒通过限定应用场景(如医疗影像诊断)、封闭测试场域(如城市特定路段)、控制用户规模,构建一个“压力测试容器”。其法律价值在于以下两点。一是提供责任豁免的安全港,“我国人工智能监管沙盒存在着维护安全有余而支持创新不足的现状,尤其表现为法律责任豁免制度的阙如”。企业在遵守预设安全计划的前提下,对沙盒内测试产生的特定风险享有责任豁免或限制,从而敢于探索前沿领域。二是形成数据驱动的规则生成器,监管者通过动态监测,观察算法与人类行为的互动,记录风险涌现的节点(如算法偏见阈值),为正式立法储备实证基础,使规则制定从理论推演转向证据为本。
3.反身性法律迭代程式与日落条款。应当突破法律永恒性的迷思,构建规范的生命周期管理系统。引入反身性修订机制,要求每条重要规则都附带其制定时的“技术前提说明”(如“本条款基于监督学习范式”),当现实技术参数(如出现强大的无监督学习模型)超越预设阈值时,自动启动法定修订程序。同时,强制推行日落条款,要求高风险领域的规则(如深度合成内容披露标准)在生效后3—5年自动失效,除非经过重新评估确有必要延续。这倒逼立法主体定期根据技术代际更迭重新审视制度效能,使法律从静态文本转变为“活的、可演进的规范有机体”。
上述三重时间机制共同指向法律时间观的范式转型:从线性到相对性,从滞后到并行,从封闭到开放,使法律体系能够与技术突破保持同步演进。
(二)空间维度:构建分层协同的差序治理体系
针对技术异质性、领域差异性以及安全与发展的价值冲突,渐进式治理范式在空间维度上拒绝“一刀切”,转而构建一种分层化、差序化的治理架构。该体系遵循“元治理—领域治理—组织治理”的逻辑,在不同层级分配不同的规制任务与理性标准。
1.价值基底的锚定与底线划定。国家顶层立法应跳出具体行为规制的范畴,恪守“元规则制定者”的角色定位。其核心职能在于锚定不可妥协的价值底线,确立全社会一体遵循的“负面清单”,例如明令禁止开发应用社会评分系统、禁止利用人工智能实施意识操控、严禁危及生命安全的算法歧视等。此类构成性规则应力求少而精,通过强制性规范固化为刚性约束,为整体治理生态划定不可逾越的红线。在此红线之外,国家立法当保持最大限度的谦抑,依托研发税收抵免、公共数据开放等倡导性规范与政策工具引导发展方向,而非以法律条文直接框定技术路线。
2.授权行业与场景制定特异性规则。承认医疗、金融、交通、教育等不同领域在面对 AI 时有着不可通约的伦理密度、风险强度与规制需求。国家立法应授权医疗监管机构、金融监管部门等,基于其专业知识和领域特性,制定本行业的 AI 应用具体指南和标准。例如,由卫健部门牵头制定“医疗诊断 AI 临床验证标准”,由金融监管部门制定“算法交易风险压力测试规程”。这种“领域理性优先”原则,确保了规制深度嵌入技术应用机理,实现“国家立法做减法,行业规则做加法”,既避免了统一立法的结构性错配,又发挥了行业监管的专业优势。
3.组织伦理内生。有效的治理最终要落脚到组织行为上,应通过制度设计,推动企业将伦理与安全要求内化为研发和运营的“免疫系统”。“作为应对方案,‘人在回路中’( HITL)策略被提出,它将人类判断与人工智能技术相结合,以减少偏见并保证个性化的法律结果。”具体来说:一方面,要求达到一定规模或从事高风险 AI 研发的企业设立实质性的伦理审查委员会,赋予其对重大算法迭代的暂停权,并要求其发布年度 AI 伦理影响报告;另一方面,探索建立算法影响评估的强制制度,要求企业在部署可能对个人或社会产生重大影响的 AI 系统前,进行系统性评估并采取缓解措施。这使外部监管压力转化为组织内部的合规动力和伦理自觉,形成持续改进的微观基础。
这种分层治理体系形成了功能互补、权责清晰的差序格局,有效地化解了价值冲突,并尊重了技术在不同场景下的异质性逻辑。
(三)工具创新:实现软硬法协同的多元规范供给
为破解路径依赖与监管僵化,渐进式治理范式必须超越对“国家强制力”的单一依赖,构建一个软硬法相互协同、多元规范共生的治理工具箱。
1.技术标准的参数化与动态调适。“硬法”因其修订程序冗长,难以跟上技术迭代。而技术标准具有灵活、专业、可量化的优势,可作为硬法的重要补充。应大力推进人工智能可解释性标准、数据安全标准、算法公平性标准等国家与行业标准的制定。这些标准能将“公平”“可控”等抽象法律原则转化为机器可读、可测量的技术参数(如群体公平性差异阈值),使伦理要求成为技术架构的初始设定。更重要的是,标准可以通过版本升级等快速修订来响应新技术风险(如针对生成式 AI 的“幻觉”指标),实现规范与技术的近乎同步进化。
2.司法裁判的个案探索与规则形成功能。在立法留白或规范模糊之处,司法系统应发挥个案裁判的独特优势,依托案例的累积效应,为人工智能治理供给“实践型法律规则”。法院审理人工智能侵权、算法歧视、生成内容著作权等新型案件时,需着力提炼算法透明度、人类控制权重、损害可预见性等核心要素,搭建动态化责任评估框架。此类司法实践推动的规则细化与原则明晰,能够为后续立法提供宝贵的经验素材与规则雏形,进而形成“司法探索—经验凝聚—立法优化”的良性循环。
3.伦理共识与行业自律的柔性规制力量。“软法”虽欠缺强制约束力,却可借由市场声誉、行业准入、社会评价等多元机制,发挥强有力的引导作用。“为了更好地实现软法功能,必须从立法上对软法体系进行整合,界定软法的概念、将软法作为法律渊源、以软法补充公法体系、将软法作为治理规则、将软法作为追责依据。”应大力推动行业组织制定人工智能伦理公约,鼓励企业发布负责人工智能发展承诺,组建行业自律组织开展资质认证与同行评议。当“以人为本、智能向善”的理念从法律条文逐步转化为行业共识、企业文化与工程师职业操守时,其治理成本最低且效果最为持久。这种植根于共识的柔性规制,与硬法的刚性底线形成互补,共同塑造了健康有序的人工智能创新生态。
软硬法的协同共治,在于打造富有韧性的规范生态体系。硬法划定不可逾越的治理红线,软法提供灵活调适的制度空间;司法裁判探索前沿争议的解决路径,技术标准推动治理规则的落地实施;伦理共识塑造市场主体的行为习惯,最终会显著降低制度运行的整体成本。
总之,渐进式治理范式并不是现有立法模式的小修小补,而是一场深刻的范式变革。它以谦抑性为根基,在时间上为技术演进保留试错缓冲区,在空间上为多元规则留出共生界面,在规范上为软硬法协同构建耦合机制;它旨在汲取欧盟激进立法的僵化教训与规避美国分散治理的碎片化风险,探索一条兼具原则性与灵活性、秩序与活力的“中国式中间道路”。最终,法治的智慧不在于编纂看似完美的最终法典,而在于培育一个能够容纳不确定性,并在动态平衡中持续进化的治理生态系统,从而在技术革命的惊涛骇浪中,为人类尊严与价值守护提供最坚韧的制度之锚。
六
结语
人工智能的立法抉择,本质上是法治文明面对技术革命时的一场哲学自觉。笔者通过剖析技术不确定性与法律稳定性的本体冲突、安全与发展价值的目标悖论、控制论范式的路径陷阱以及域外激进立法的实践代价,证成了统一立法在当前历史条件下宜缓行的基本立场。技术的颠覆性、价值的不可通约性、治理的复杂性共同决定了,试图以一部宏大法典锁定未来图景,不仅是理性的僭越,更将付出抑制创新与固化风险的巨大代价。
中国人工智能立法的真正智慧在于,保持战略耐心与制度谦抑,“遵循‘急用先行、逐步完善’两步走的思路”,从“立法中心主义”转向“治理生态学”。我们主张的渐进式治理范式,并非消极规避,而是更具前瞻性与韧性的法治进取:以时间维度上的动态适配机制接纳技术演进,以空间维度上的差序治理结构回应领域理性,以工具维度上的软硬法协同激发多元共治。这条道路要求立法者摒弃“总工程师”的幻象,转而扮演“生态园丁”的角色——培育土壤而非设计花朵,设定底线而非绘制蓝图。
唯有如此,方能在不确定性中守护确定性,在技术风暴中锚定人的价值。法治的尊严,从不在于法典的厚重,而在于制度为未来保留的包容性与生命力。这或许是中国为全球人工智能治理提供的最具启示性的智慧:在谦抑中孕育力量,在渐进中抵达深远。
-向上滑动,查看完整目录-
《河南财经政法大学学报》2026年第2期目录
【法治中国】
1.论人工智能统一立法应缓行
——渐进式治理范式的构建
房保国
2.低空经济发展视域下无人驾驶航空标准规制的法治重塑
邹新凯
3.“健康中国”的法理内涵及实现路径
田蒙蒙
【数字法学】
4.数据占有行为的刑法规制限度
龚珊珊
5.个人信息自决权的权能拓展
——以大型平台企业为视角
孙铭
【部门法学】
6.相对贫困背景下社会救助工作福利适用契约规则的反思与完善
王健
7.论行政公益诉讼第三人的规则建构
——以国有建设用地使用权人作为闲置土地公益诉讼第三人为例
李松杰
8.人工智能致害犯罪中刑法因果关系的范式嬗变与归责边界
朱亮宇
9.“企业—国家”协同型民营企业内部腐败犯罪治理模式之提倡
李智伟
【纪检监察专栏】
10.纪检监察监督与检察监督关系论纲
刘用军
《河南财经政法大学学报》是由河南财经政法大学主办的法学类专业学术期刊。1986年创刊,2012年由原《河南省政法管理干部学院学报》更名为《河南财经政法大学学报》。本刊秉承“格物致知、明礼弘法”的办刊理念,坚持办刊的学术性,追求学术创新,严守学术规范,关注法学理论和实践中的前沿问题、热点、难点问题及其背后的深层次法理研究,注重制度建设;包容不同学术观点和学术思想。
点击进入下方小程序
获取专属解决方案~
责任编辑 | 郭晴晴
审核人员 | 张文硕 韩爽
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
热门跟贴