摘要

生成式人工智能行政立法博弈是指在享有制定行政法规、规章权力的行政主体依法定职权和法定程序制定与生成式人工智能技术相关的行政法规、规章的活动过程中,各方利益相关者之间进行复杂博弈与决策的过程。博弈主体主要包括行政立法主体、生成式人工智能公司、社会公众。通过深入探究生成式人工智能行政立法博弈的基本结构,分析出三个博弈困境,分别是行政立法主体自利性与自由裁量权的结合可能导致生成式人工智能的行政立法偏离公共利益、信息不对称增加生成式人工智能行政立法成本以及生成式人工智能行政立法后评估制度缺失。在博弈困境分析的基础上,提出完善生成式人工智能行政立法的建议,主要包括完善“程序—实体”规则以制约生成式人工智能行政立法中行政立法主体的自由裁量权,构建生成式人工智能产品信息强制披露制度与生成式人工智能行政立法后评估制度。这些措施旨在提高生成式人工智能行政立法质量,平衡科学技术发展和公共利益,确保生成式人工智能技术的负责任性、可信任性、可持续发展。

一、问题的提出

现阶段,以 ChatGPT 为代表的生成式人工智能技术在引领新一轮科技产业革命的同时,也在各行各业引发了数据安全与个人隐私、知识产权纠纷、虚假内容、偏见歧视、垄断与竞争等一系列法律、伦理与技术风险。为了有效预防或及时化解此类不确定性风险,弥补法律供给不足,国家行政机关需要通过行政立法,对“生成式人工智能”技术及其风险治理作出制度化、规范化安排。此处的行政立法是指享有制定行政法规、规章权力的行政主体依法定职权和法定程序制定规范性文件的活动。诚如马克思所言,“立法者应该把自己看作一个自然科学家,他不是在制造法律,不是在发明法律,而是在表述法律”。因此,行政立法主体需要从客观实际出发认知人工智能时代的科技伦理价值、社会秩序、技术规律、多元利益冲突以制定出“良法”,从而实现对生成式人工智能的“善治”。

国家互联网信息办公室联合其他6个部委在2023年7月颁布《生成式人工智能服务管理暂行办法》部门规章,立法目的是“促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益”。该规章对于填补法律在这方面的空白,完善人工智能规范体系,为利益相关者提供行为指引,无疑具有重要意义。但是,一方面,该部门规章所规定的“包容审慎和分类分级监管”过于原则,可能赋予行政机关过于宽泛的行政自由裁量权。国家有关主管部门仍需要通过制定“规范性文件”的方式,针对生成式人工智能技术的特点及其在相关行业和领域的应用,进一步细化相应的分类分级监管规则或指引。另一方面,在权利(力)义务内容的设定上尚不完善,该部门规章虽然详细规定了生成式人工智能服务提供者承担网络信息安全义务、网络信息内容生产者责任、个人信息保护义务、与注册其服务的生成式人工智能服务使用者签订服务协议的义务,发现/处置违法内容向有关主管部门报告的义务,发现/处置使用者利用生成式人工智能服务从事违法活动向有关主管部门报告的义务、建立健全/设置投诉举报机制的义务等,但在涉及生成式人工智能服务监管难点时,对本部门承担的义务和职责则语焉不详。而且,《生成式人工智能服务管理暂行办法》与《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》在规制对象上存在交叉重叠,均包含利用生成对抗网络(GANs)、变分自编码器(VAEs)等生成式算法模型生成文本、图片、声音等内容的技术,可能引发规范适用冲突问题。

党的二十大报告指出,要推进科学立法、民主立法、依法立法,使每一项立法都符合人民利益,反映人民意志,得到人民拥护。行政立法本质上是对行政法律关系当事人复杂的利益关系进行调控、规范、平衡,以实现“善治”的一种手段或工具。由于生成式人工智能技术与社会各领域的深度融合,行政立法涉及多元主体之间的复杂利益博弈。如何在复杂的行政立法利益博弈中实现“科学立法、民主立法、依法立法”,使得与生成式人工智能相关的行政法规、规章能够符合人民利益/公共利益呢?本文拟借助博弈论这一理论工具,详细分析生成式人工智能行政立法博弈的基本结构,深入探究与生成式人工智能技术相关的行政法规、规章制定过程中的博弈困境,并给出相应对策以提高生成式人工智能领域的行政立法质量。

二、生成式人工智能行政立法博弈的基本结构

当前,以人工智能解决的目标或任务类型为分类标准,人工智能模型可以大致分为两类:判别式/分析式人工智能(Discriminative/AnalyticalAI)和生成式人工智能(GenerativeAI)。分析式人工智能的目标主要是分类和回归,生成式人工智能的目标在于生成新的数据,数据类型包括文本、音频、视频、图片等。博弈是指具有充分理性或有限理性的两个以上的决策者(个人或组织),面对一定的环境条件,在一定的约束条件下,依靠所掌握的信息,同时或先后、一次或多次从各自可能的行为或策略集合中进行选择并实施,各自从中取得相应结果或收益的过程。从该定义可知,构成一个标准博弈需要具备6个要素:①参与人;②策略与行动;③收益;④信息;⑤行动顺序;⑥博弈均衡。本文的生成式人工智能行政立法博弈是指在享有制定行政法规、规章权力的行政主体依法定职权和法定程序制定与生成式人工智能技术相关的行政法规、规章的活动过程中,各方利益相关者之间进行复杂博弈与决策的过程。具体说明如下:

(一) 参与人

参与人亦称“博弈方”“局中人”,是指博弈中独立决策、独立承担后果,通过选择行动或策略使自身利益最大化的个人或组织。在生成式人工智能行政立法博弈活动中,参与人是指在行政法规、规章的制定、执行、修改过程中,直接或者间接参与并对结果产生影响的相关方。参与人主要包括:(1)行政立法主体。《中华人民共和国立法法》(以下简称《立法法》)规定,行政法规的制定主体是国务院,规章的制定主体是国务院各部、委员会、中国人民银行、审计署和具有行政管理职能的直属机构,以及省、自治区、直辖市和设区的市、自治州的人民政府。但是,从行政组织理论视角而言,具体承担立项、起草等行政立法活动的是具体的行政部门以及组织的参与者(公务员)。(2)生成式人工智能公司。以生成式人工智能产业链为分类标准,我国的生成式人工智能公司可以分为三类:①处于基础层的生成式人工智能公司,主要从事算力基础设施与数据资源的软硬件研发与服务,例如AI芯片厂商、云计算服务提供商(如阿里巴巴)、计算资源服务器提供商、数据管理工具提供商等。②处于技术层的生成式人工智能公司,主要聚焦于机器学习算法理论及模型、自然语言处理技术、计算机视觉及知识图谱等通用技术以及神经网络基础框架的研发。③处于应用层的生成式人工智能公司,主要业务模式包括垂直(专用)领域与通用领域两种。前者指的是运用生成式人工智能技术为交通、教育、金融、医疗等特定行业、特定业务场景提供专业化、定制化服务,例如天佑公司的轨道交通、鹏程等公司的生物制药专业模型。后者指的是研发跨行业通用化的大模型,通常具有数十亿到数千亿个参数。例如,百度的“文心一言”,可适用于内容制作、金融贷款审核、娱乐领域的智能问答、智慧城市的突发事件预警监控等领域。生成式人工智能公司是重要的市场经济主体,其可以在行政法规、规章的起草环节通过座谈会、论证会、听证会等多种形式参与行政立法,表达利益诉求。(3)社会公众。公众参与行政立法是政治民主在行政领域的延伸和补充,社会公众指的是行政主体之外的自然人、法人(不包括前述的生成式人工智能公司)、社会团体、其他社会组织。

(二) 策略与行动

策略与行动是指参与人可选择的所有策略或行动的集合。在生成式人工智能行政立法博弈中,博弈三方可以采取一系列策略和行动来影响关于生成式人工智能的行政法规、规章的制定过程及规则本身,以维护自身的利益。依据《立法法》《行政法规制定程序条例》《规章制定程序条例》,行政立法主体的策略集合={制定行政法规/规章,不制定行政法规/规章,启动立法前调研,听取公众意见}。启动立法前调研与听取公众意见是行政立法主体在决定起草生成式人工智能相关行政法规或规章时所应为的。虽然我国法律并没有明确赋予公众启动行政立法、修改或废除行政法规的程序权利,但是《宪法》第四十一条赋予公众对于任何国家机关和国家工作人员,有提出批评和建议的权利。因此,公众享有参与行政立法的权利,包括行政立法项目启动前与实施阶段、行政法规或规章的实施阶段。故而生成式人工智能公司与社会公众的策略集合={主动参与,被动参与}。

(三) 收益

收益是指参与人在博弈过程中做出决策之后所能获得的利益。利益是权利的基础,权利是利益的法律表现形式。生成式人工智能技术的出现既产生了需要调整的新型社会关系,也催生了需要以法律规则固定下来的新的权利形态(如数字人权、算法解释权、个人数据可携权、删除权等)以及新的法律概念(如生成式人工智能、数字行政行为、机器学习算法)。生成式人工智能行政立法博弈各方的目的在于通过既定程序制定出能够调整新型行政法律关系、平衡公权力与新兴私权利或者各种利益主体之间的利益关系,实现生成式人工智能技术的负责任性、可信任性、可持续发展的行政法规、规章。以利益主体为分类标准,利益可以分为个体利益和群体利益两大类,进而细分为个人、家庭、集体、集团、国家和社会六个小类。生成式人工智能公司与行政立法主体都是具有一定组织结构的社会组织,社会公众则是由自然人、法人、社会团体、其他社会组织所组成的群体。由于个人通常具有双重身份,既能成为各个社会组织的参与者,也能作为独立的个体,因此,生成式人工智能行政立法所涉及的利益主体呈现多元化趋势,导致行政法律规则在制定过程中不可避免地出现各个利益主体之间的权益分配冲突。复杂的利益平衡主要由行政立法主体负责。

(四) 信息

信息是行政立法活动的重要工具与资源。根据香农(Claude Elwood Shannon)定义,信息是指不确定性的减少,“熵”是不确定性减少的度量。在行政立法主体、生成式人工智能公司和社会公众之间的博弈中,各参与方作出决策行为均须依赖于获取足够丰富、准确的信息资源,以减少立法博弈过程中各种因素的不确定性,使得自己作出的决策能够最大化自身利益。但是,各参与方均面临信息约束:(1)不完全信息的客观存在。与生成式人工智能相关的行政立法信息是不完全的,即各参与方不可能拥有或者无法获取关于其他参与方或者博弈环境的全部信息。(2)成本约束。信息具有经济成本,信息搜寻是一个成本递增的过程。(3)时滞约束。信息的可获得性还受到时间约束,主要表现在某些信息的显示具有“时滞”特性,只能在行为发生后表现出来。(4)有限理性。有限理性概念的提出者是赫伯特·A.西蒙(Herbert A.Simon),指的是决策者出于认知能力和信息获取的限制,无法按照完全理性的模式去选择最优策略以追求决策行为的最大效用(利益)。

(五) 行动顺序

行动顺序是指在博弈过程中不同参与者采取行动/策略的顺序或时间安排。行动顺序有以下两种情况:(1)同时行动。同时行动适用于静态博弈,即所有参与方策略选择是独立的,可以同时选择并执行自己的策略,不需要考虑其他参与者的策略选择,不需要考虑信息传递或者时间顺序。(2)依次行动。依次行动适用于动态博弈,即参与方依据预先给定的程序规则依次执行策略选择。信息能够在决策节点与时间节点流动,参与方可以根据流动信息(例如,前一个参与者的决策)选择策略。由于生成式人工智能行政立法的过程主要包括立项、起草、审查、决定、公布五个环节,因此,生成式人工智能行政立法博弈可能涉及时间序列、多轮博弈和信息交流,行动顺序为依次行动。例如,国务院某部门在规章起草环节,作出以某种方式听取公众意见的策略选择后,生成式人工智能公司和社会公众才可以选择是否主动参与。

(六) 博弈均衡

博弈均衡是指在一定的策略选择下,各方参与者无法通过单方面改变自己的策略来获得更好收益的状态。结合前述分析,生成式人工智能行政立法博弈是一个多阶段不完全信息动态博弈,其所要达到的均衡状态是行政法规、规章实现了行政立法主体、生成式人工智能公司、社会公众之间的利益平衡,形成了所有参与方的最优策略组合。不完全信息动态博弈的博弈均衡又被称为完美贝叶斯均衡(Perfect Bayesian Equilibrium,PBE)。

综上所述,基于生成式人工智能行政立法博弈的基本结构,可知在生成式人工智能行政法规/规章制定过程中,博弈三方采取依次行动的顺序,一共存在三个阶段的博弈,具体论述如下:

在博弈第一阶段,博弈各方围绕是否制定与生成式人工智能技术相关的行政法规或规章进行博弈。行政立法主体有权决定是否制定与生成式人工智能相关的行政法规/规章。生成式人工智能公司和社会公众观察到行政立法主体的决策选择后,各自独立地决定是否主动参与或被动参与。并且,博弈各方开始产生信息获取成本与其他成本。当第一阶段的博弈结果为“制定与生成式人工智能技术相关的行政法规或规章”,则进入博弈的第二阶段。否则,博弈继续处于第一阶段或终止。

在博弈第二阶段,博弈各方围绕法条的权利义务/权力责任配置进行博弈。行政立法主体应当依法进行调研和听取意见,继续产生信息获取成本与其他立法成本。生成式人工智能公司和社会公众观察到行政立法主体获取立法信息的行为之后,各自独立地选择是否主动参与或被动参与。若主动参与,则积极进行利益表达,试图影响法条中权利义务的配置。当行政法规或规章草案经过公布生效之后,第二阶段博弈结束,博弈结果为“成功制定与生成式人工智能技术相关的行政法规或规章”,由此进入博弈的第三阶段。当行政法规或规章提议在立项、起草、审查、决定、公布的某一环节失败时,可能返回第一阶段博弈或第二阶段博弈终止。

在博弈第三阶段,博弈各方继续围绕已经生效实施的与生成式人工智能技术相关的行政法规或规章的“修改、废止或解释”进行博弈。正所谓法律的生命力在于实施。行政法律规范的实施效果是检验博弈各方收益是否实现的唯一标准。行政法律规范实施效果不佳不一定是行政立法出了问题,但是行政立法出了问题必然体现在法的实施环节。因此,一方面,当行政法规或规章实施效果良好,各方都取得预期收益,博弈均衡暂时形成;另一方面,随着技术的不断发展及其他外部因素的变化,各方产生了新的利益诉求,需要以行政法规或规章的形式得到确认。博弈各方需要通过行政立法后评估制度对相关的行政法规或规章进行评估,将评估结果作为“修改、废止或解释”行政法律规范的重要参考依据,以实现不完全信息动态博弈均衡。由此可知,公布实施的与生成式人工智能技术相关的行政法规或规章必定要从应然状态走向实然状态,其实施效果应当接受行政立法后评估,唯有如此才能使生成式人工智能行政立法博弈无限接近完美贝叶斯均衡,即博弈各方利益达到均衡。

另外,立法必然是一个博弈的过程。生成式人工智能行政立法博弈与一般立法中的博弈存在区别,具有特殊性。具体包括:(1)生成式人工智能行政立法博弈与社会公众的切身利益关系更为密切。随着生成式人工智能技术在日常生活中获得广泛应用,治理生成式人工智能技术的行政法律规范往往创设新的行政法律关系,直接影响行政相对人的权利义务。(2)行政立法主体在生成式人工智能行政立法博弈中居于主导地位。它既是行政法律规范的制定者,也是规则的执行者。行政立法主体角色的多重性使得其在生成式人工智能行政立法博弈的过程中具有强大的影响力和约束力。(3)生成式人工智能行政立法博弈面临技术发展的不确定性。不确定性是人工智能技术本身及其发展的根本特征,行政法律规范创设的主要目的就是克服法律的滞后性,使得新型法律关系能够及时得到调整,满足生成式人工智能技术治理与创新发展的需要。因此,博弈三方皆需要根据外部环境的变化而及时调整策略选择,最大程度地满足自身的利益诉求,最终在动态博弈与重复博弈中实现博弈均衡。

三、生成式人工智能行政立法博弈困境分析

“良法是善治之前提”,善治是良法的目标。基于前述博弈结构进行深入分析,可知在生成式人工智能行政立法博弈中仍面临自利性与行政自由裁量权相结合导致行政立法偏离公共利益的风险、信息不对称、行政立法后评估制度缺失等困境,这些可能产生的困境是制定“良法”的主要障碍。

(一)自利性与行政自由裁量权相结合导致生成式人工智能行政立法偏离公共利益的风险

自利性是指个体或群体在决策中优先考虑自身利益的倾向。行政立法主体、生成式人工智能公司、社会公众作为博弈的参与人都具有天然的自利性。生成式人工智能公司的自利属性是生成式人工智能进行行政立法必要性的重要依据,但社会公众的自利性又是公共利益形成的前提。所谓公共利益指的是社会中最大多数人享有的多元化利益。中国是人民民主专政的社会主义国家,国家利益与公共利益是高度重合的。因此,多数人之个体利益可以通过民主的立法程序上升为法律所保护的公共利益或国家利益。行政立法主体享有立法权是以制定能够实现自由、秩序、安全、福利等维护公共利益的行政法规或规章作为正当性基础的。但是,享有行政自由裁量权的行政立法主体的自利性可能会导致行政法律规范偏离公共利益。具体表现如下:

其一,行政立法主体自利性与行政自由裁量权相结合,导致公众参与制度形同虚设。行政立法的公众参与制度是博弈各方进行利益表达的平台。生成式人工智能公司虽然在提高新质生产力、改善公共服务、增进公益等方面发挥了重要作用,但是在自利性的驱使下可能罔顾生成式人工智能技术存在的多元化、复杂化的技术风险、法律风险和伦理价值风险。现阶段,对于生成式人工智能技术风险的治理,我国缺乏统一的人工智能法。而且,对生成式人工智能技术的监督管理涉及“网信、发展改革、教育、科技、工业和信息化、公安、广播电视、新闻出版等部门”。所涉部门众多、部门职责划分不清晰以及授权立法与职权立法的模糊性可能导致行政立法主体为减轻和弱化本部门应承担的责任和义务,采取规避法律责任及风险的措施。

在博弈的第一阶段,行政立法主体可能采取不制定相关行政法规或规章的策略,而是通过制定行政指导文件的方式来规避法律责任和潜在风险。例如,《国家药监局器审中心关于发布人工智能辅助检测医疗器械(软件)临床评价注册审查指导原则的通告》,通告表明其虽“不作为法规强制执行”,但是通告中的“如果有能够满足相关法规要求的其他方法,也可以采用,但是需要提供详细的合理性论述和验证确认资料”。这一规定表面上为当事人提供了选择余地,实际上增加了当事人的“合规”成本与制度性交易成本,对行政相对人具有事实约束力,不利于生成式人工智能技术在医疗领域的进一步创新发展。由于国务院、省级政府对行政规范性文件的制定进行了严格规定,行政指导文件凭借其灵活性、制定程序简单便捷,又能产生事实上的约束力,逐渐获得行政立法主体的青睐。在生成式人工智能技术的规制实践中,行政指导文件的数量日益增多。因此,在这种“避开行政立法”通过行政指导文件达到对行政相对人产生事实上“强制力”的情况下,再加上行政立法主体所拥有的“是否制定与生成式人工智能技术相关的行政法规或规章”的自由裁量权,即便社会公众与生成式人工智能公司通过行使批评、建议与监督权的方式选择主动参与,也是“心有余而力不足”,无法充分表达各自的利益诉求。综上所述,在“行政立法不作为”的情况下,行政立法的公众参与制度未能发挥其应有作用。

另外,假定在某种情况下行政立法主体在博弈的第一阶段选择制定与生成式人工智能技术相关的相关行政法规或规章的策略,生成式人工智能公司与社会公众即使积极采取主动参与的策略也只能在博弈过程中处于被动听取意见的地位。生成式人工智能公司与社会公众提出的行政立法的意见和建议是否被采纳,完全由行政立法主体自行判断、自主决定。例如,《行政法规制定程序条例》第十三条规定:“起草行政法规,起草部门应当深入调查研究,总结实践经验,广泛听取有关机关、组织和公民的意见。……听取意见可以采取召开座谈会、论证会、听证会等多种形式。”虽然前述法条规定了行政立法主体在起草阶段“应当”广泛听取有关机关、组织和公民的意见,但是行政立法中是否举行听证,采用何种方式、何种程序进行听证,也是由行政立法主体自行裁量的,最终的听证笔录也对行政立法主体没有强制性的约束力。因此,行政立法的公众参与制度流于形式,无疑会打击社会公众参与行政立法的积极性,最终导致生成式人工智能行政立法偏离公共利益。

其二,行政立法主体自利性与行政自由裁量权相结合,导致生成式人工智能行政法律规范可能成为行政权力寻租的制度工具。克鲁格(Anne O.Krueger)最早提出权力寻租理论,认为寻租活动是指在政府干预的情况下,人们为了获取个人利益,往往不再通过增加生产、降低成本、提高科技的方式来增加利润。正如诺贝尔经济学奖得主布坎南(James M.Buchanan)指出的那样,政府的特许、配额、许可证、同意、特许权分配——这些密切相关的词的每一个都意味着由政府造成的任意的或人为的稀缺。虽然行政权力来源于人民授予,但是实际上它是由一个一个具有自利倾向的个人行使行的。具体的个人又归属于某一个职能部门。因此,行政权力介入生成式人工智能技术治理必然造成权力寻租空间。行政立法主体可能利用法定职权和掌握的立法资源巩固和扩大本部门的各种职权、执法权,谋取个人利益或非法的“部门利益”。因此,在生成式人工智能行政立法博弈中,当权力寻租空间出现时,行政立法主体在自利性的驱动下会主动选择制定与生成式人工智能技术相关的行政法规或规章。由此进入博弈的第二阶段,博弈三方围绕法条的权利义务配置展开博弈。

在博弈的第二阶段,享有自由裁量权的行政立法主体会通过对行政相对人设置不合理的权利义务以达到行政权力寻租的目的。在行政法律规则的内容设置方面尽可能“合法”地攫取更多的权益,同时减少承担的责任。例如,《促进和规范数据跨境流动规定》中详细规定了数据处理者“应当按照相关规定识别、申报重要数据”“数据分类分级义务”“数据出境安全评估”“个人信息保护认证”“个人信息保护影响评估”“数据安全保护义务”等义务,“对拒不改正或者造成严重后果的,依法追究法律责任”。相应地,网信部门也被赋予了宽泛的执法权,包括监督权、数据出境安全评估的最终审批权、延长评估结果有效期的决定权等。《立法法》第七条第一款规定:“立法应当从实际出发,适应经济社会发展和全面深化改革的要求,科学合理地规定公民、法人和其他组织的权利与义务、国家机关的权力与责任。”《行政法规制定程序条例》第十二条第(四)项和第(五)项,《规章制定程序条例》第六条第一款和第二款都对《立法法》第七条进行了细化,明确要求:行政立法主体在制定行政法规或规章时,要切实保障公民、法人和其他组织的合法权益,在规定其应当履行的义务的同时,应当规定其相应的权利和保障权利实现的途径;在赋予有关行政机关必要的职权的同时,应当规定其行使职权的条件、程序和应承担的责任,应当体现“职权与责任相统一”的原则。但是,《促进和规范数据跨境流动规定》却没有规定网信办行使职权的条件、程序和应承担的责任,也没有规定生成式人工智能公司应当享有的知情权、公平审查权等相应权利及具体实现途径。除此之外,与生成式人工智能技术相关的《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《数据出境安全评估办法》《个人信息出境标准合同办法》也存在同样的问题。由于此种权力寻租行为通常不涉及创造新的价值或提供新的产品或服务,因此,收益即将受到严重影响的生成式人工智能公司将采取积极主动参与的策略进行博弈,手段包括但不限于“不提供涉及生成式人工智能行政立法的重要信息”“引导有利于自身的公共舆论与媒体宣传”“行业联盟”“贿赂行政立法主体以获取有利于自身的法规条款”等。权力寻租空间的存在必然导致生成式人工智能公司主动参与行政立法的成本不断增加,原本应投入科技研发的财力、物力与人力被消耗,同时也不会再以纯粹的市场需求为导向经营企业。当生成式人工智能技术公司积极主动参与行政立法并与行政立法主体达成权力寻租意向时,社会公众的策略选择则会被边缘化,公共利益因行政立法主体的自利性与“自由裁量权”的结合而被进一步弱化或侵蚀。

二)信息不对称:增加生成式人工智能行政立法成本

在生成式人工智能行政立法博弈的全阶段、全过程中,博弈三方之间存在信息不对称的情况。信息不对称是指在不完全信息市场中,相关信息在交易双方不对称分布的情况。信息不对称的存在会提高信息获取成本,信息获取成本的增加会影响博弈三方的策略选择与收益,从而导致生成式人工智能行政立法成本的增加。具体论述如下:

其一,信息不对称导致行政立法主体的信息获取成本增加。获取信息需要花费时间成本和金钱成本,信息搜寻行为是一个成本递增的过程。所谓的信息搜寻行为是指个体或者群组在处于不确定性的环境下,为了满足自身某种需求或实现某种目的而采用各种方法寻找信息的行为。生成式人工智能行政立法信息搜寻方式主要包括:电话查询、网络搜索、数据挖掘、实地调研、座谈会、论证会、听证会。以信息是否公开为标准,与行政立法活动相关的信息可以分为公开信息与非公开信息两大类。公开信息的获取成本要远远低于非公开信息的获取成本。依据信息对生成式人工智能行政立法的重要程度为分类标准,可以将信息分为四个类别:(1)一般信息。一般信息主要包括行政立法的程序信息、法规草案信息、法条规则的逻辑信息(知识)、立法价值信息、立法目的(事项)信息、立法理由信息。(2)重要信息。其主要包括生成式人工智能服务产品信息和生成式人工智能所应用的行业信息。(3)敏感信息。其主要包括个人信息、生成式人工智能公司的生产经营信息。(4)国家核心信息。其涉及国家、公共利益且不能公开的信息。前述四个级别的信息获取成本依次递增。对于有限理性的博弈三方而言,一般信息都是公开的,获取成本较低。其余三类信息的获取成本要根据博弈三方的信息需求、收益目标和资源能力而进行具体分析。

对于行政立法主体而言,获取重要信息的成本是非常高的。行政立法主体由于不能脱离实践仅仅凭借经验立法或者封闭式立法,因此在治理ChatGPT式的生成式人工智能技术时,需要综合运用多种信息搜寻方式获取重要信息,以保护敏感信息以及国家核心信息。然而,生成式人工智能服务产品信息及特定行业信息具有较高的信息成本与专业壁垒。一方面,生成式人工智能服务产品涉及先进的自然语言处理、多种复杂的机器学习算法,深入了解技术信息以达到规制的预期效果需要聘请专家,花费高昂的时间成本与金钱成本;另一方面,特定行业的生成式人工智能治理需要立法者深入了解该行业的相关信息、已经存在的法律等信息。例如,数字金融领域的生成式人工智能治理难度明显不同于医疗领域。不同领域之间存在较强的信息与知识壁垒,行政立法主体需要委托相关机构对已有的行业数据进行挖掘,也需要通过召开座谈会、论证会或听证会集中计算机、经济学、法学、社会学等领域的专家的知识,这些信息获取都需要花费高昂的成本。重要信息获取成本的增加必然会影响行政立法主体的策略选择及收益。

对于社会公众而言,获取重要信息、敏感信息和国家核心信息的成本非常高,他们处于信息劣势地位。即便社会公众主动参与生成式人工智能行政立法,也无法提出有效的监管建议,甚至无法提出具体的诉求。因此,信息获取成本过高可能导致公众放弃主动参与行政立法的策略,进而导致行政立法主体无法获取这部分附加收益。附加收益包括公众提出的高质量立法建议,公众增强对行政立法的信任度、对法规的遵守程度等。因此,行政立法主体需要进行更多的调研、咨询和专家论证、数据分析等工作,这增加了时间成本和金钱成本。

对于生成式人工智能公司而言,它们以商业秘密为由掌握着大量的重要信息甚至部分敏感信息,处于信息优势地位。例如,某部门正在制定关于自动驾驶汽车的行政法规,以确保安全性和合规性。假设甲公司是国内最大的自动驾驶技术提供商,其拥有大量关于自动驾驶技术、安全性测试和数据隐私等重要信息,并以商业秘密为由拒绝公开。在具体博弈过程中,行政立法主体在决定制定相关法规时需要依赖甲公司的专业知识与数据,甲公司可以选择主动参与行政立法,使得法条倾向于满足甲公司的商业利益而忽视公共利益。

综上所述,在生成式人工智能行政立法博弈中,由于信息不对称的存在,社会公众信息获取的成本增加、生成式人工智能公司以商业秘密为由拒绝披露重要信息的行为都增加了行政立法主体总的信息获取成本。

其二,行政立法主体信息获取成本的增加最终导致生成式人工智能行政立法成本增加。为进一步验证信息不对称的存在会增加生成式人工智能行政立法成本,笔者根据前述的博弈基本结构、博弈阶段及收益影响因素构造行政立法主体的综合收益函数UG(S,I,C),再采用假定数值验证法进行证明。

(三) 行政立法后评估制度缺失:降低生成式人工智能行政立法的科学性

在立项、起草、审查、决定环节所形成的参与方最优策略组合只是一个局部的、暂时的博弈均衡状态。涉及治理生成式人工智能技术的行政法规或规章公布实施后,行政立法博弈仍在继续。这是因为生成式人工智能行政立法博弈具有特殊性,结构在法条中的各方利益诉求及立法目的只有在行政法律规范实施运行中才能真正实现。而且,生成式人工智能技术的快速发展与应用可能带来新的利益冲突与挑战。另外,当上位法变化时(如人工智能法的出台),相关行政法律规范也应当及时修改或废止。因此,博弈各方将进入生成式人工智能行政立法博弈的第三阶段,基于自身利益诉求围绕生成式人工智能技术相关行政法规或规章的“修改、废止或解释”进行博弈。《行政法规制定程序条例》第三十七条赋予了“国务院法制机构或者国务院有关部门可以组织对有关行政法规或者行政法规中的有关规定进行立法后评估”的权力。《规章制定程序条例》第三十八条规定“国务院部门,省、自治区、直辖市和设区的市、自治州的人民政府可以组织对有关规章或者规章中的有关规定进行立法后评估”。行政立法后评估结果是“修改、废止”有关行政法规或规章的重要参考。但是,这两条规定过于原则,缺乏具体的可操作性规范,未能形成统一的行政立法后评估制度,不便于生成式人工智能公司与社会公众进行充分的利益表达,不利于在动态博弈中逐步达到完美贝叶斯均衡,最终降低生了成式人工智能行政立法的科学性。具体表现在以下两个方面:

其一,行政立法后评估启动程序规范缺失,导致生成式人工智能领域行政立法后评估启动具有随意性、不确定性。目前,我国的行政立法后评估制度依然处于各地自主探索阶段。不同地区的启动程序大相径庭,大致可以分为两类:一类是依职权启动。由国务院法制机构或国务院有关部门对行政法规、部门规章启动立法后评估;政府法制机构或政府法制机构会同其他政府机关、行政主管部门、实施机关实施评估和起草主体作为实施主体、受委托主体作为实施主体对地方政府规章启动立法后评估。另一类是依申请启动。例如,《宁波市政府规章立法后评估办法》第十一条规定:“具有下列情形之一的政府规章,可以进行立法后评估:……(五)人大代表议案、政协委员提案或者其他公民、法人、组织建议立法后评估的……”很明显,既有的行政立法后评估制度缺乏统一的、中央层面的行政法规,没有对“选择哪些规章进行评估”“选择何种方式进行评估”“何时对人工智能行政法规、规章进行立法后评估”“由谁监督行政立法后评估活动”等一系列评估启动程序事项进行统一规定。各地行政立法后评估实施主体多元化,程序分散,规定不一,这既不利于评估生成式人工智能领域的行政法规或规章的实施效果、可操作性,也不利于社会公众与各地区的生成式人工智能公司表达利益诉求,最终可能进一步降低相关行政法规或规章的实施效果。而且,在非法的“部门利益”的驱使下,行政立法主体往往不会主动选择启动行政立法后评估。

例如,假设甲公司是一家注册在B省的生成式人工智能公司,主营业务遍布海内外,其产品功能是让人工智能扮演不同角色,向用户提供文本、图片、视频等与情感聊天相关的服务。在以上位法为法律依据的情况下,各地政府结合本地实际情况就治理生成式人工智能技术出台了不同的规章。譬如,各地政府关于“不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为”的具体操作细则不同。B省的地方政府规章要求市场监督管理部门每年对生成式人工智能公司的市场行为进行两次审查,评估其是否存在垄断和不正当竞争行为。D省要求生成式人工智能公司每年提交一份反垄断自查报告,评估并报告其市场行为是否存在垄断或不正当竞争嫌疑。而且,在规章制定阶段,B省和D省都未充分采纳生成式人工智能公司与社会公众参与行政立法所提出的修改建议,也未细化行政立法后评估启动程序规范,未赋予生成式人工智能公司或社会公众启动行政立法后评估程序的权利。那么,甲公司在生成式人工智能行政立法博弈的第三阶段处于劣势:一方面,它无法针对规章具体条款的“修改”提出请求,即无法要求行政立法主体启动行政立法后评估程序,从而难以有效表达并维护自身的利益;另一方面,它需要同时遵守各地不同的规章制度,这既增加了企业的合规、运营等成本,也为行政权力的寻租行为提供了制度空间。长此以往,最终将遏制企业科技创新,导致其市场竞争力受损。这也意味着生成式人工智能技术相关规章的立法预期、价值与目标难以实现。社会公众同理,当与生成式人工智能技术相关的行政法规或规章已经公布实施,如果结构在法条中的利益诉求无法实现,再加上行政立法后评估启动程序规范的缺失,他们在博弈第三阶段也面临着无法继续主张或重新表达利益诉求以及难以有效参与行政立法后评估等困境。

其二,缺乏有效的生成式人工智能行政立法后评估标准,不能为相关的行政法规或规章的“修改、废止或解释”等提供充分的科学依据。评估标准是指为了衡量行政法规、部门规章、地方政府规章的文本质量、实施效果、可操作性等属性而确立的一组能够重复使用和共同使用的准则。大部分国务院部门以及省区市政府规定的行政立法后评估标准大同小异,主要包括:①合法性,即评估行政法规、规章的规定是否合乎立法权限、是否与上位法一致。②合理性,即评估行政法规、规章的规定是否合乎公平公正原则、权责统一原则、比例原则、社会发展需要等。③协调性,即评估其与同位阶的其他规章是否存在矛盾,各项规定是否协调、衔接。④可操作性,即评估规章的概念是否明确,各项制度与程序设计是否易操作、可行。⑤规范性,即评估立法技术是否规范,立法语言是否规范、简明。⑥实效性,即评估行政立法是否实现了立法预期效果,公众对其的反映如何,其实施成本如何,其对经济、社会、文化、环境等方面的影响如何。但是,这些评估标准仍然存在两方面缺陷,无法为生成式人工智能领域的行政法规或规章的“修改、废止或解释”提供准确的、科学的评估结果。一方面,这些评估标准过于原则化,缺少针对生成式人工智能行政立法的个性化评估标准,无法适应生成式人工智能技术等新兴领域的特定需求。例如,生成式人工智能技术与金融行业的深度融合可能会导致算法歧视问题。数字金融领域的行政立法后评估需要确立“算法公平”作为价值标准以衡量行政法规或规章是否有效保障公民享有的平等权。如果未能保障公民的平等权,这意味着相关行政法规或规章未能实现公民的博弈收益,立法预期收益落空。社会公众希望通过行政立法后评估制度为“修改、废止或解释”相关行政法规或规章以保护自己的利益诉求提供科学依据。但是,当个性化评估标准缺失时,即便启动生成式人工智能领域的行政立法后评估制度,博弈各方也不能获得准确的、科学化的评估结果。另一方面,针对生成式人工智能技术行政立法的实效性评估标准缺乏具体二级评估指标,不易于操作。生成式人工智能技术与经济、社会、文化、生态等领域深度融合给相关行政立法的实效性评估带来困难。例如,假设某政府对一项关于医疗行业数据隐私规章启动立法后评估,由于实效性评估标准缺失二级评估指标,难以评估规章对患者数据隐私的保护效果,规章对患者信任人工智能医疗的影响以及对人工智能医疗创新的促进程度。因此,行政立法主体应当灵活地根据不同行业的具体特点和需求,确立详细的实效性评估二级指标,以提升行政立法后评估结果的准确率。

四、提高生成式人工智能行政立法质量的对策

生成式人工智能行政立法是行政机关干预人工智能全领域的必要手段。基于前述博弈困境,为了实现行政立法主体、生成式人工智能公司、社会公众之间的利益均衡状态,使得“公共利益”最大化,理应从以下三方面入手:其一,完善制约行政自由裁量权的生成式人工智能行政立法的“程序—实体”规则;其二,构建生成式人工智能产品信息强制披露制度;其三,构建生成式人工智能行政立法后评估制度。

(一) 完善生成式人工智能行政立法的“程序— 实体”规则:制约行政自由裁量权

从“程序—实体”规则层面实现行政法律规范对行政权力的制约是保障公民权利的重要方式。在生成式人工智能行政法律规范制定过程中,从实体性法律规则层面制约行政立法中的自由裁量权需要明确新兴权利义务的类型以及分配原则;在程序性规则方面则需要完善既有的公众参与制度以激励社会公众表达自己的利益诉求。

一是完善公众参与制度以制约行政立法主体的自由裁量权。公众参与制度作为一种行政程序,能够有效控制自由裁量权。现阶段的行政立法公众参与制度由参与主体、参与领域、参与渠道(方式)等核心要素构成。参与主体包括自然人、法人、社会团体和其他社会组织,“公众”即非特定的行政相对人,包括与立法听证事项有直接或间接利害关系的相对人,具体表现为非特定的公民、法人或其他组织。参与领域主要是社会公共领域。参与方式主要包括公开征求意见、听证会、座谈会、论证会。行政立法公众参与制度的完善应当以提升公众参与的有效性为核心,以达到制约行政立法自由裁量权的效果,最终实现“良法善治”的目的。提升生成式人工智能领域公众参与行政立法的有效性主要从以下两个方面入手:(1)建立公众参与行政立法的意见及时反馈机制,并形成相应的责任追究制度。公众参与指的是行政主体之外的个人和组织对行政过程产生影响的一系列行为的总和。行政立法公众参与制度需要建立行政立法意见及时反馈机制与配套的责任追究制度,积极回应公众提出的行政立法意见。一方面,行政机关需要成立专门的技术部门以收集、整理、分析行政立法主体通过公开征求意见、听证会、座谈会、论证会等形式听取的公众意见,形成一份有效的行政立法公众意见报告,并在网站或者官方媒体账号进行公开。报告的内容需要解释公众建议被采纳与未被采纳的理由。另一方面,行政立法主体没有及时有效回应公众意见,依据行政过错的严重程度,承担相应的行政责任,触犯刑法的,依法追究刑事责任。此处的行政过错可以分为一般过错和严重过错。一般过错指的是行政机关工作人员给行政机关、行政相对人造成的损害后果和影响较小。严重过错指的是行政机关工作人员给行政机关、行政相对人、社会公共利益造成的损害后果严重,影响较大。对于一般过错,行政机关工作人员应当承担精神处分,包括通报批评、警告、严重警告、训诫、记过、记大过。对于严重过错,行政机关工作人员应当承担薪俸处分,包括减薪、停薪、罚薪、停发补贴、减少退休金等。例如,当公众对“行政立法主体不作为”提出建议或批评,行政机关应当及时回应公众,并展开调查,说明理由;否则,行政机关工作人员应当承担相应的行政法律责任。(2)完善公众参与行政立法的程序规则。公众参与行政立法并非通过代议机关参与而是通过法定参与方式直接参与,能够明确表达自身的利益诉求或意志。其一,行政机关在提出关于生成式人工智能的行政法规或规章的草案后,应当举行听证会。其二,明确听证代表的遴选条件以确保生成式人工智能领域行政立法的民主性,保障公众的行政立法参与权。听证代表的遴选采用公开申请的方式,遴选条件主要包括:①代表的广泛性。生成式人工智能技术已经广泛渗透到经济、文化、生态、社会等各个领域,行政机关在选择听证代表时要依据具体推出的行政立法草案所涉及的利益主体的全面性来分配代表名额。一般情况下,主要包括:互联网公司、生成式人工智能产品的终端用户(普通公众)、专家学者、人工智能行业协会。②听证代表的素质。在选择听证代表时,要考虑其专业背景知识,包括技术、法律、政策、与生成式人工智能相关领域的知识。当某公民缺乏前述专业背景知识,其即便参与行政立法听证会,也无法提出对行政立法草案有效的建议。其三,为听证代表报销交通费、住宿费、误工费,提高社会公众参与听证的积极性。其四,听证会应当允许其他社会公众旁听、允许新闻媒体的采访与报道。

二是合理配置权利义务/权力责任。明确新型行政法律关系是进行权利义务(权力责任)合理配置的基础。当行政法律规范以生成式人工智能为调整对象时,实质上已经形成了特定的新型行政法律关系——生成式人工智能行政法律关系。行政法律关系是行政主体相互之间以及行政主体与公民、法人、其他组织之间在行政管理活动过程中的权利义务关系。因此,行政法律关系本质上就是权利义务关系。权利是为道德、法律或习俗所认定的正当的利益、主张、资格、力量或自由(((。义务是指当一项权利存在时,法律要求他人所承担和履行的不得受到侵害或妨碍的必要行为尺度。生成式人工智能行政法律关系由三要素构成:行政法律关系的主体、行政法律关系的客体、行政法律关系的内容(行政法律规范所规定的权利和义务)。在生成式人工智能领域,行政法律关系的主体包括行政相对人(生成式人工智能公司、社会公众)和行政主体(负有监督管理职能的相关行政机关)。生成式人工智能行政法律关系的客体是行政法律关系主体的权利和义务指向的对象,具体包括生成式人工智能产品等物质性对象本身、生成式人工智能产品所带来的物质利益与精神利益等。生成式人工智能行政法律关系的内容主要包括对传统权利及相应义务的规定、对新兴权利及相应义务的规定、对行政立法主体权力与责任的规定。而且,生成式人工智能行政法律规范的重点是对社会公众享有的新兴权利进行确认。以生成式人工智能产品的核心要素为分类标准,新兴权利可以分为算法权利和数据权利两大类,主要包括算法解释权、算法知情权、算法公平权、数据删除权等权利。确认社会公众享有前述新兴权利的同时也意味着生成式人工智能公司要履行相应义务。这实际上也赋予了行政立法主体相应的执法权与监督权。但是权利与义务/权力与责任并不是简单的一一对应关系,因此,行政立法主体在配置权利义务/权力责任时应遵循下列原则:

(1)权利与义务相一致原则/权力与责任相统一原则。一方面,权利和义务应当尽可能相互对应。例如,生成式人工智能系统研发者有义务确保其人工智能系统是透明的、可解释的,不得侵害社会公众享有的算法知情权、算法解释权。但是,生成式人工智能系统的研发者也应享有相应的权利,诸如数据所有权与使用权、公平竞争权、知情权、救济权等。另一方面,相关行政机关应当承担相应的监管责任以确保生成式人工智能系统的研发者履行义务,保障公民的算法知情权、算法解释权。行政立法主体应当明确其执法权、监督权的权力界限与范围、行使的程序规则以及未履行职责或滥用权力应承担的具体责任。

(2)公共利益原则。基于前述观点,多数人之私人利益可以形成最大化的公共利益。因此,行政法规、规章在配置权利义务时应当以维护公众的整体利益为中心。尽管生成式人工智能可能带来侵犯隐私、歧视、不公平的算法决策等技术风险,但是也不能忽视生成式人工智能带来的收益。以公共利益原则为导向,在权利义务配置方面既要预防风险,也不能遏制技术创新。

(3)受益者负担原则。受益者负担原则源于“污染者负担原则”,其核心思想是:受益于某一公共服务、公共事业或行政服务的个人或实体应当为这些好处或资源支付相应的费用或履行相应的义务。例如,生成式人工智能公司利用用户数据训练大模型,同时依赖国家基础通信设施、电力设施等公共资源,为社会公众提供在线服务,从中获取广告收益、订阅收入或其他商业利润。由此可知,生成式人工智能公司享受了一些“好处”。为了确保公平,他们需要在收益范围内支付一定的费用,负担相应比例的数据安全监管、通信设施维护以及高能耗模型带来的环境治理等成本。因此,根据“谁收益,谁负担”的原则,有关部门可以向生成式人工智能公司征收一定的数字服务税。这一案例为行政立法主体展示了如何通过受益者负担原则来进行具体的制度设计,公平配置权利义务。同样地,用户享受了生成式人工智能技术带来的“好处”,也应该承担相应的义务。综上所述,这些原则有助于确保生成式人工智能技术的有效治理和可持续发展。

(二) 构建生成式人工智能产品信息强制披露制度:减少信息不对称

生成式人工智能产品信息强制披露制度的构建应以政府为主导,其是沟通生成式人工智能公司与社会公众的桥梁,可以降低社会公众、行政立法主体获取信息的成本,防止生成式人工智能公司滥用信息优势地位。“披露”一般指由旁观者通过比较正式的渠道进行公布、发表。因此,“信息披露”可以被解释为将自身获取的信息向外界进行公开的行为。生成式人工智能产品信息强制披露制度的主要构成部分,具体论述如下:

首先,披露主体(义务人)。生成式人工智能公司应当主动披露生成式人工智能产品的相关信息,降低行政立法主体、社会公众获取信息的成本。披露主体主要包括三大类,分别是处于基础层、技术层、应用层的生成式人工智能公司。

其次,披露范围。生成式人工智能产品信息的披露范围不能仅仅采取列举式的方法详尽无遗地列明,而是应采取描述性方法与列举式方法相结合的方式进行界定。针对生成式人工智能,行政立法有两个任务:一是从算法工作原理、Transformer模型、数据收集方式等事实中抽象出法律事实;二是以法律的形式确保生成式人工智能产品不会冲击人类既有的伦理价值体系。因此,笔者认为,互联网企业应主动披露可能危害人类伦理价值的生成式人工智能产品信息。但是,休谟在《人性论》中提出“事实与价值”二分的原则,揭开了实然与应然之间的巨大鸿沟,认为从“描述性事实”不能逻辑地推论出“规范性价值”。因此,该款规定需要进一步解释以便生成式人工智能公司遵守行政法规或规章。一方面,人类伦理价值是指在道德和伦理领域中,人们普遍认同和推崇的关于正确与错误、善与恶、公平与不公平等方面的观念和原则。从既有实践来看,生成式人工智能主要对公平、隐私保护、安全三种价值造成冲击。因此,笔者认为,信息披露的范围主要包括:(1)生成式人工智能产品的安全信息;(2)关于生成式人工智能产品的公平信息;(3)隐私保护信息;(4)其他可能危害人类伦理价值的生成式人工智能产品信息。

再次,披露的原则。生成式人工智能公司应当遵循以下两项披露原则:一是适度性原则与相关性原则之间的平衡。信息披露的内容不应过多地影响信息披露主体(义务人)的正常运营,以免使其承担过重的信息披露义务;也不应披露无关紧要的信息,以免社会公众及其他利益相关者被淹没在大量冗余及无用的信息中。二是必要性原则。生成式人工智能公司作为信息披露主体,其所提供的信息应当是博弈各方做出合理选择的必要信息。

最后,披露的方式。生成式人工智能产品本质上是基于自然语言处理技术的预训练语言模型,当前以ChatGPT使用的Transformer语言模型为主流范式。基于哈里斯(Zellig S.Harris)提出的分布式语义学理论,在相似的环境中同时出现的单词往往具有相似的含义,算法得以提高“学习”“理解”单词的含义的能力。GPT是Generative Pre-trained Transformer的缩写,是一种基于Transformer模型的预训练语言模型,核心思想是通过无监督学习的方式,预训练一个能够理解和生成自然语言的模型,然后使用有标注的数据进行微调,从而完成各种自然语言处理任务。在理解原理架构的基础上,笔者认为披露的方式应采用算法模型原理的自然语言解释。信息披露制度需要衡量社会秩序和生成式人工智能公司享有的知识产权、用户隐私之间的冲突。公开算法的源代码虽然能在某种程度上促进知识共享与合作,而且能在一定程度上消除生成式人工智能产品风险。但是,完全公开算法的源代码会严重打击生成式人工智能公司的技术创新积极性。因此,披露的信息应在不暴露核心商业秘密的情况下提供自然语言解释,满足透明度的要求。

(三) 构建生成式人工智能行政立法后评估制度

生成式人工智能技术是具有颠覆性的技术生产力,行政法规、规章是国家行政机关治理生成式人工智能技术的手段。对生成式人工智能领域的行政法规、规章进行立法后评估能够为修改或者废止不适当的规定提供科学依据以更好促进技术创新,亦能保障人民群众的利益,构建良好的社会秩序。构建生成式人工智能行政立法后评估制度主要包括两个方面:

其一,以行政法规的形式明确生成式人工智能行政立法后评估启动程序规范。程序规范是对评估主体行为和权限的规范。首先,明确评估实施主体。对于涉及生成式人工智能领域的行政法规、部门规章,由国务院法制机构或国务院有关部门进行评估。对于生成式人工智能领域的地方政府规章,由省、自治区、直辖市和设区的市的人民政府法制机构统一进行评估,避免起草部门、第三方机构评估的缺陷。其次,明确生成式人工智能行政立法后评估启动条件。①时间条件。在与生成式人工智能相关的行政法规、规章实施三年之后应当启动立法后评估。②特定事件。当出现大规模技术及其引发的伦理问题(数据隐私泄露、算法歧视、机器人伦理)、重大技术变革时,评估主体应当忽略时间触发条件的限制,立刻启动行政立法后评估。③公众请求。当一定数量的社会公众、利害关系人针对某项生成式人工智能领域的行政法规或规章提出立法后评估的请求,评估主体应当在该项行政法规或规章实施一年后,启动行政立法后评估。最后,明确生成式人工智能行政立法后评估外部监督主体。加强立法机关、司法机关在行政立法后评估制度中的监督地位。一方面,全国人民代表大会及其常务委员会行使对行政机关的监督权,除了备案审查制以外,还应当由法制工作委员会成为行政立法后评估的外部监督主体,负责审查行政立法实施主体提交的生成式人工智能领域行政立法后评估报告。另一方面,当评估实施主体未依据公众请求评估与生成式人工智能领域相关的行政法规或者规章时,公众有权向司法机关提起行政诉讼。行政机关针对生成式人工智能领域的行政法规或规章的行政立法后评估“不作为”应当纳入行政诉讼的受案范围。

其二,建立合适的生成式人工智能行政立法后评估标准。(1)授权行政立法后评估实施主体根据不同生成式人工智能领域的行政法规、规章,设置个性化立法后评估标准(特殊标准)。笔者将生成式人工智能行政立法后评估标准分为一般标准和特殊标准。一般标准如前所述,特殊标准又可以分为:①价值标准,即衡量生成式人工智能行政法规、规章是否体现算法公平、算法可解释性、数据安全等一系列社会伦理价值。②创新和竞争标准,即衡量生成式人工智能行政法规、规章是否促进技术创新和进步,是否维护良性市场竞争,是否保护知识产权。(2)明确实效性评估标准的二级评估指标。二级评估指标具体包括:①规则是否得到执行和服从。②规则执行成本是否小于规则收益。此处涉及生成式人工智能行政法律规范的守法博弈,博弈的参与人包括行政执法主体、社会公众、生成式人工智能公司。社会公众与生成式人工智能公司的策略集合={主动遵守,被动遵守,违反}。行政执法主体的策略集合={依法行政,选择性执行,不作为}。收益则包括社会、经济、文化、生态环境等方面的积极影响。评估实施主体可以依据二级评估指标建立一个新的生成式人工智能守法博弈模型以评估生成式人工智能领域行政法规、规章的实效性。

结语

生成式人工智能技术的出现形成了多种亟须法律调整的新型社会关系,催生了多种需要法律确认和保护的新兴权利以及利益。但是,法律通常提供的是一般性的法律原则和规则。在生成式人工智能技术与各行各业深度融合的特定领域,需要行政立法主体制定相关行政法规、规章以具体化法律原则和规则,从而实现保护公民权利和制约行政权力之间的平衡。本文从博弈论视角出发探究生成式人工智能行政立法博弈的基本结构,分析博弈困境,为有效提高生成式人工智能领域的行政立法质量提出相应对策。然而,对于生成式人工智能的立法前调研,是否需要建立配套的规范化、制度化的行政立法前评估制度,限于篇幅,无法详细展开。