打开网易新闻 查看精彩图片

作者 简 介 : 张文祥,仰恩大学法学院。本文 系 福建省社会科学基金项目“自动化行政的技术逻辑与法律规制研究”(项目批准号:FJ2025C062)阶段性成果;中国侨联课题(课题编号:24AZQK202)阶段性成果。 文 章来源:《 成都理工大学学报(社会科学版) 》 2025年9月 29日网络首发。注释及参考文献已略, 引用请以原 文为准。

摘要

近年来人工智能发展迅猛,自动化行政对行政活动产生了极大冲击。已有的国内研究成果中,主要涉及法律风险、程序权利、治理范式、立法等内容,较少运用实证数据和跨学科分析方法。人工智能时代自动化辅助行政、部分自动化行政、完全自动化行政三个发展阶段存在不同的风险样态,在提取司法裁判现状和实践案例后,其风险样态可以归纳为权力黑箱、治理偏见、权力异化、权力惰性、私权侵害五个基本范畴。本文旨在针对自动化行政的现实风险提出规制路径,如明确可解释性规则、凝聚治理共识、承认社会权力、确立以人为本的理念、落实最小损害原则。探索人工智能运用于各类行政行为的可能性和规制路径,能丰富自动化行政发展的研究范式,预防规制失灵。

一、问题提出及文献综述

人工智能催生了新技术、新产业、新模式,在立法和行业规则尚未完善的背景下,人工智能发展速度已经逐渐超出社会规则所能规范的范畴,由此产生了“时空压缩”现象。为此,党的二十届三中全会明确提出“完善生成式人工智能发展和管理机制”“加强网络安全体制建设,建立人工智能安全监管制度”。从自动化辅助行政到完全自动化行政的发展过程中,探索人工智能时代自动化行政的规制路径意义重大。

国内学者早期研究聚焦于电子政务和数字化行政,随着人工智能技术的发展,逐渐关注“自动化行政”这一范畴。如部分学者从算法权力角度,提出算法治理和算法霸权问题。针对自动化行政的法律风险,学者们分别提出侵犯公民权利、程序权利悬置、算法解释困难、裁量负外部效应等概念界定。针对自动化行政的法律规制,学者们分别提出实施敏捷治理、引入解释权、立法适度照顾公众的感知风险、分级分类治理范式、运用软法规范等规制措施。可见,已有的国内研究成果中,主要涉及法律风险、程序权利、治理范式、立法等内容,极少结合自动化行政的技术逻辑和实证经验,规范政府使用人工智能技术。本文将从司法裁判现状和实践案例切入,运用跨学科思维,探讨规制路径。

国外学者早期关注技术性正当程序和算法决策,近期转向研究人工智能技术的运用问题。如学者们分别对加拿大、英国、瑞典、美国和欧盟的运用现状进行研究。研究表明,加拿大行政部门根据指令披露了他们对算法系统的使用情况,但无法确认所披露的信息是否详尽。英国政府担心会降低政府决策的透明度和公平性,算法可能从格式糟糕的数据集中继承人类的偏见。在瑞典,因立法者希望法律保持技术中立,法律没有明确规定何时允许自动决策,良好行政和法治等核心民主理想也很少被关注。美国和欧盟都承认,如果人工智能技术不以负责任的方式开发和部署,就会存在与之相关的风险,并肯定了“以人为本”的方法。针对自动化行政的法律风险,学者从行政裁量权和程序公平性角度,探究人工智能时代问责机制和法治价值问题。Grimme likhuijsen & Meijer认为,算法政府的特点是复杂性、不透明性和相互依赖性,这些特征改变了政府决策的性质,并产生了一系列对政府合法性的威胁。Kanitz et al.指出,用生成式人工智能工具加强变革活动时,必须保持谨慎和批判性思维。可见,域外学者们认为,人工智能存在不透明、偏见、认知错误与偏差、数据安全、合法性等问题。人工智能时代自动化行政的发展,也会不可避免地产生类似问题,需要我国政府部门予以重视。同时,域外学者注重运用实证数据和跨学科分析方法,这也是本文要突破的重点方向。

二、人工智能时代自动化行政的发展阶段

本文采用案例研究方法探讨人工智能时代自动化行政的发展阶段,运用司法判例和行政机关实践样本勾勒自动化行政的发展样态。人工智能时代的自动化行政,根据不同程度的人为干预,可分为辅助、部分和全自动化三个阶段,本部分将探讨上述三个阶段中自动化行政的发展状况。

(一)强人工干预的 自动 化辅助行政

辅助状态下,自动化系统只能发挥协助人类完成某项工作的作用,无法单独承担一部分任务,即识别、分析、决定的权力仍然全部掌握在行政机关工作人员手上。自动化辅助行政类型众多,以交通执法领域的处罚为代表。因交通违法行为具有瞬时性和证据标准化特征,在采用自动化系统后,必须辅助人工干预,以保障实体公正和行政相对人的程序权益。下文将探讨实务案例中,自动化辅助行政存在的实体或者程序问题。

打开网易新闻 查看精彩图片

从上述五起案件中,能发现作为辅助角色的电子警察,在取证环节经常会出现完整性、真实性问题,并且出现程序问题。如案例1和案例2当中,当事人同样对电子眼形成的证据提出了质疑,不同地区有不同的判决结果。案例3、案例4、案例5当中,针对程序问题,不同法院的观点有所区别,部分法院认为不影响行政相对人的权利,不影响行政行为的效力;也有法院认为,这是程序上的不合法行为,依法应当撤销。可见,不同法院在自动化辅助行政的程序正当问题上,存在不一样的认定标准。

实务判例中,司法机关一般会认定运用电子警察设备执法符合法律规定,并且主张有限审查,即只审查电子设备投入过程、是否明显不科学和产生大量的异议。在“宁伯学、保定市公安局交通警察支队、保定市公安局行政处罚再审审查与审判监督”一案中,宁伯学主张行政机关没有提交电子警察设备的执法手续、技术检验合格手续、技术规范或相应规定;再审法院审查后认为,要求提供电子警察设备相关手续及检验结果,没有法律依据。“何凯、上海市公安局黄浦分局交警支队行政处罚案”中,司法机关认为法庭审查技术性问题的标准是法定审查,即审查系统是否经过充分论证和测试、是否明显违反逻辑和科学或难以解释、是否存在重大反对意见或科学合理的怀疑;并指出从专业视角否认该装置的科学性,可能会对非法鸣笛的治理造成负面影响,影响行政机构在未来执法活动中利用高科技手段惩治交通违法行为的能力。当前多数地区采用技术手段实施交通执法行为,其中佛山广台高速的“天价罚单”引发了热议。在该地区一段道路上启动电子警察后,一年内记录了1.8万多起交通违法行为,但交通事故总数和事故受伤人数同比大幅度下降;面对处罚,众多车主积极申请行政复议维权,部分处罚行为被复议机关撤销。可见,以电子警察为代表的自动化辅助行政是把双刃剑,一方面它提高了行政效能,减少了交通事故的发生;另一方面它增加了执法密集度,引发了新的行政争议,致使维权数量增多,进而让复议机关和司法机关的工作量增大。

(二)弱人工干预的部分自动化行政

部分自动化状态下,自动化系统能够独立完成某项任务,此任务无需人为干涉。在生成式人工智能背景下,自动化系统可以预先设定算法,在收集和挖掘海量数据之后,通过机器学习的方式形成自主决定的内容。交通执法领域存在众多的部分自动化行政,如在中国的智能交通中,通过运行基于深度学习的计算机视觉算法来生成结构化数据,如目标行人的位置、行驶速度、方向等,并进一步解决农村道路建设检查监督中的资源浪费和缺乏直观结果等问题。四川省交通行政审批业务处理系统是为该省各级交通审批人员提供在线审批工作的服务系统,该系统提供在线审批、自动文件生成、证书打印管理等功能,它还可以在整个过程中与其他管理系统和数据库共享经批准的数据资源。新加坡在城市地区建立了ERP高速公路电子收费系统,该系统取代了限制区域和高速公路的手动收费系统,它已经在一些拥堵的城市成功应用,但也引发了人们对隐私和社会公平的担忧。

域外方面,美国存在许多部分自动化行政的推行经验,如自动决策系统(ADS)管理着美国的社会福利项目,横跨地方、州和联邦政府,比如失业和残疾福利领域。引发担忧是ADS可能大幅提高效率,但它们也很有可能加剧基于阶级和种族的现状不平等;并且这些系统的使用不透明,往往使个人在作出决定后没有办法行使追索权,个人甚至可能不知道ADS在决策过程中发挥了作用。对此,美国学者提出建议,联邦政府应立即采取行动,增加自动决策制度的透明度和责任追究力度;各机构必须建立内部技术能力以及以透明度、问责制和公平性为中心的数据文化;美国政府应要求使用ADS的机构采取通知和评论程序,向公众披露有关这些系统的信息;立法机关通过全面立法,实施单一的国家标准,规范跨部门和用例使用ADS。在部分自动化行政流程中,一些程序性步骤由技术系统独立接管,不能自动化的个别步骤由人工处理;人工生成的结果被转移到技术系统进行进一步处理,并可能自动做出决策。人工智能系统没有义务检查人类执行的部分步骤的结果,总体责任仍由人类承担;部分自动化的类似变体是通过自动检查法律相关事实来准备决策,从而由人类做出最终决策。

(三)无人工干预的完全自动化行政

完全自动行政中,由自动化系统单独实施某类行政行为的全部环节,不需要人工干预。从广义上讲,即使一项决定在形式上分配给了某个人,但如果此人在正式做出决定之前没有主动审核处理结果,该决定仍被视为自动化处理。虽然完全自动化决策是通过技术手段独立作出,但是公共机构须确保决策监督具有实质性。在挪威,若能提前确定所有法律要求和条件,相关法律规则即可执行,从而实现自动化执行。挪威的法律规则可通过决策树(一种层次结构的预测分类模型)实现,若人类对法定条件的评估无裁量空间,则决策可完全自动化。

近年来,中国深圳市通过政府大数据平台建设,实施了无需人为干预审批流程的自动审批,实现了秒报秒批的效果。为了实现这一目标,深圳市政府运用的技术有“人工智能”“大数据”“区块链”等。深圳构建了一个统一的全市政府信息资源分享平台,集中了电子证书、公共信贷等数据资源;通过为所有类型的数据库创建共享和重用渠道,该平台促进跨区域的数据共享和互操作。与此同时,上海正在推进无需人工干预的自动许可证变更业务,通过利用人工智能等技术,建立一种新的模式,以实现审批自动化、多样化渠道和便捷审批服务;一旦在线申请成功,处理结果将在30秒内可用,如果获得批准,企业负责人可通过免费邮寄方式获取许可证,或在现场等待领取证书。

三、人工智能时代自动化行政风险样态

自动化辅助行政、部分自动化行政、完全自动化行政三个发展阶段存在不同的风险样态,但是也存在共性之处,如对行政相对人程序权益的侵害,致使程序正义理念难以得到实现。本文无法穷尽自动化行政的全部风险类型,在提取司法裁判现状和实践案例的相关内容后,将人工智能时代自动化行政风险样态归纳为“权力黑箱、治理偏见、权力异化、权力惰性、私权侵害”五类范畴。

(一)“算法黑箱”形成“权力黑箱”

算法黑箱现象出现在数据输入、计算过程和结果输出三个阶段。由于公共利益原因,知情同意规则被豁免,导致数据采集过程不透明;出于保护商业秘密的考虑,算法的决策流程也不对外公开;此外,数据分析结果与决策之间的转换过程同样未公开披露。自动化行政的算法缺乏透明度和可解释性,在某些情况下可能会产生有争议或不公平的决策,并且由于其不透明性,人们无法理解为何会出现这些结果。算法黑箱引发了不透明、陌生性、不可预测性和合理性等问题,对自动化决策构成了挑战。如新加坡的ERP高速公路电子收费系统和美国的自动决策系统,因算法决策缺乏公开决策过程,行政相对人很难认同决策内容,进而影响决策的执行效果。

同时,算法黑箱使政府决策高度保密,决策动机、程序、结果的复杂性加剧了黑箱属性,形成了“权力黑箱”。人工智能技术融入政府决策过程中,算法不可预测性、难以解释等特征也传导到了公共决策,由此也引发了“权力黑箱”;并为权利的实现制造了障碍,公民无法理解、参与和监督政府权力的行使。在算法技术的运行过程中,存在黑箱风险,普通群众可能难以接受算法技术与权力融合。“权力黑箱”反映了算法时代的悖论,即数据以惊人的速度传播,但具有重大影响的信息只有内部人员才能访问。现有数据资源和算法技术是有限的,行政相对人基于算法黑箱推荐的服务内容,必然存在相应的算法风险或其他风险。如ChatGPT的大模型对公众来说就是一个黑箱,很少有人能真正理解其背后的操作逻辑和知识架构,因为该模型利用强化学习与深度学习方法、学习模式和训练模型,使ChatGPT背后的偏见问题更加隐蔽和难以检测。

(二)“算法歧视”激化“治理偏见”

算法歧视来自于数据,不公平的数据集是根源。倘若训练数据有倾向性或固有偏见,潜在偏见可能会无意中嵌入到算法中,此时的决策会放大和强化已有的歧视和偏见。特别是在无人工干预的完全自动化行政中,行政相对人可能不知道自己正在遭受算法歧视,并且也难以知道自己是因哪些特征而被歧视。同时,政府治理过程中可能会延续陈规定型观念和歧视性做法,影响个人和边缘化群体,缺乏人工监督和干预也将导致错误和意想不到的后果。算法歧视的事先预防和理论探索不容忽视,算法歧视的确定和问责也是良好治理的关键环节,倘若缺乏问责机制,很难评估算法治理的有效性。

针对算法歧视,目前法律治理产生了两方面的问题,一是治理目标的普遍性,即算法歧视监管范围太广;二是治理手段的碎片化,即算法歧视监管工具的混乱。算法歧视的内涵中包括“算法偏见”,它对应于语义表达中法律层面的歧视;同时包括“算法不平等”,它对应于语义表达中道德维度的歧视。适用公法—私法规范所描述的“算法偏见”的情况主要在公法领域,同时部分涉及公民福祉的私法领域;“算法不平等”情景则是私法领域的其余部分。从人工系统向机器学习系统的转变,提供了克服治理偏见的机会。但因自然语言的歧义性特点,有偏见的文化在不知不觉中不依附于语言的静态符号,智能应用产生的叙事可以再现新的偏见。生成式人工智能的独立学习与决策能力,可能产生偏见、歧视和不公平的结果。如果算法系统不加思考地依赖于海量数据,机器学习也会提高治理偏见的可能性。

(三)“技术权力”致使“权力异化”

技术权力是技术要素和政治结构相互作用的产物,反映了技术的权力关系和政治效果,技术权力源于一国的国家创新能力,是国家权力的组成部分。它兼具软权力和资源权力的特质,通过迎合偏好、抚慰情绪来吸引、引导他人做其想做的事,从而实现操控目的。与传统的强制权力不同,它通过本能、无意识的方式,表现为一种基于理解的权力。人工智能算法的技术权力是看似客观的权力谱系,由数据的设计、构建、调节、操作和处理形成,但根据技术本身的效率原理和效果原理,具有明显的技术理性特征。人工智能算法通过机器优势争夺人类的决策权,并基于优势构建人类的认知和行为模型,极速扩展其影响,塑造社会运作。数据和算法正成为人工智能时代新的权力要素,任何拥有更完整、更高质量数据并掌握更先进算法的人都可以拥有更多的权力。新的权力生产要素的出现预示着权力技术转移机制的激活,技术优势将转化为权力或权力优势,并且技术权力开始向治理权力流动。以强势组织为中心的权力关系集中结构将被分散,直到下一个强势组织的出现。值得注意的是,新技术可能导致权力的意识形态风险指数逐渐放大,与公共权力合谋,产生权力异化状态。

社会主体作为人工智能技术的研发者,往往也是人工智能技术的传播主体,该主体比其他主体拥有更多关于人工智能技术的信息,这使他可能掩盖主体身份并滥用社会权力。国家作为行使人工智能技术的另一主角,尽管也拥有大量的技术信息,但其时间滞后于社会主体,导致信息不对称。如“何凯、上海市公安局黄浦分局交警支队行政处罚”案中,司法机关为了避免对非法鸣笛的治理产生负面影响,认为不能从专业视角否认电子监控设备的科学性,进而将设备科学性的审查权力交给了行政机关和社会主体。该观点明确了法定审查标准,但也可能导致行政机关推诿诿责任、放弃技术权力,或者社会主体侵越权力的现象发生。作为社会治理中的关键作用,行政机关具有强大的自主性,应当依法依规行使权力。

(四)“技术依赖”催化“权力惰性”

在自动化行政中,技术依赖主要体现为对高质量数据以及自动化行政系统的训练、测试和改进的依赖。权力和技术以依赖路径的方式相互作用,其中权力结构影响技术的采用和实施,而技术反过来又影响权力关系。技术进步推动的开创性变革会破坏现有的权力结构,并导致组织内部的权力集中。随着权力集中于中央机构,技术依赖可能会催化权力惰性。人们倾向于依赖人工智能,这在很大程度上是因为人们只知道人工智能可以做出比人类更好的决定,但不知道为什么人工智能可以做出这样的决定;这使得人类无法从人工智能中学习,但更依赖人工智能,最终被掌握在人工智能的技术力量之下。自动化行政增强了行政任务的完成效率,但也可能致使执法人员严重依赖算法。

人工智能时代的技术依赖,在某种意义上是国家对社会权力的依赖。社会权力及其运行状态是技术依赖产生的关键变量,技术力量社会化失控,集中在两种相互结合的过程形式中,即权力的技术逻辑和技术的权力惯性。技术权力的惯性体现为由权力驱动的技术理性逐渐支配甚至取代人类理性的基本逻辑。随着人工智能等技术的不断发展,一方面,完成了技术理性向意识形态和绝对正确性的蜕变;另一方面,也实现了人类理性向技术理性的转变。值得注意的是,技术依赖可能导致自动化系统缺乏可控制性和可预见性,人类难以保持对具有自主权的编程机器的控制。同时,限制了行政机关在控制力、安全性、透明度、错误识别及系统操作理解方面的能力。

(五)“公权扩张”引发“私权侵害”

自动化行政可能通过操纵或审查信息来影响言论自由和个人信息权益;通过传播虚假信息或宣传,影响公众舆论并限制获得不同观点的机会。个人数据的商品化容易威胁到隐私权,人工智能对数据的过度取用引发了严重的隐私担忧。自动化行政也加剧了透明度和问责制的缺陷,因为使用算法进行决策可能缺乏透明度,并且很难追究平台对其行为的责任;扩大平台权限以监管在线言论时,对平台本身的监督和检查有限,可能会影响到用户的私权。

人工智能时代的私权侵害不同于以往的侵权形态。首先,侵权范围扩大,侵权损害后果更加严重。佛山广台高速的“天价罚单”案件显示,行政主体反复运用电子监控设备聚合个人违法信息,可能因违反法定程序要求,严重侵害个人的合法权益。而随着人工智能的运用变多,侵犯不特定群体权益的可能性也会增加。其次,产生了新的侵权方式,人工智能的自学习和自决策能力引起了人们对潜在侵权行为的担忧,如自学习能力的发展可能导致人工智能在没有人为意图或不知情的情况下侵犯知识产权。并且人工智能支持更复杂的访问和利用个人信息的方法,这使得发现和防止侵权行为变得更加困难。最后,追究侵权者的责任更加困难。传统侵权案件中,责任一般可以被追溯到具体的个人或实体。但在人工智能系统中,责任可能分散到多个层面,包括开发者、数据提供者、训练数据、算法本身等。如数据经纪人和数据生产者等各种实体参与数据产业链,形成了复杂的责任网络,使得追究侵犯隐私行为的责任变得困难。并且人工智能系统的工作原理十分复杂,有时甚至开发者也无法准确解释其内部决策过程,更难以区分清楚不同主体的责任大小问题。同时,随着生成式人工智能的兴起,法律和监管机构难以及时跟上技术变革的步伐,这可能导致侵害行为的监管和问责滞后于技术应用。

四、人工智能时代自动化行政的规制路径

2023年8月,国务院办公室发布了政府服务效率标准化机制的意见,汇集了57个地方部门提高政府服务效率的典型实例,其中,泉州数字政府的实践涉及了人民的身边事,促进了“无处不在”的政府服务,是全国推广的案例之一。通过实施公共服务标准化,泉州市某中心将全部政务流程纳入一体化体系当中,此经验做法已被评为提升政务服务效能的典型案例。该机构的经验具有一定的启发意义,可以让其他行政机构在探索自动化行政路径时找到一些共同的属性。因此,本文选取泉州市某中心运用自动化行政的现实样貌,作为探索自动化行政的样本。泉州市某中心的行政活动具有数字化、技术性、人工智能与人工审核等特征,通过关注该中心自动化行政的运行状态,能探讨理想运行模式。同时深入探索行政活动背后的理论逻辑,能揭示新兴信息技术在行政活动领域的应用样态。下文将结合泉州市某中心办事群众、窗口工作人员、进驻领导的访谈记录,提出规制路径。

(一)明确算法系统的可解释性规则

人工智能时代,算法系统影响下的自动化行政容易产生黑箱机制,该机制致使算法结构及其决策过程的不透明度,并形成黑箱力量。黑箱力量通过限制透明度和对决策方式的理解来提高算法管理的有效性,个人在算法系统中的有限代理权可能进一步增强黑箱力量,因为他们对算法的行为几乎没有控制权或洞察力,这种缺乏透明度的状况引发了人们对问责制以及算法决策中可能出现偏见或歧视的担忧。泉州市某中心的受访员工指出,“自动化行政中的黑箱力量可能导致机构内部缺乏对决策过程的理解,算法结构可解释性的缺乏还会限制机关工作人员的能动性,并降低工作人员影响决策的能力”。缺乏可解释性也使算法系统本身产生了一种力量感,因为它们会监测自己的行为,并以预见的方式顺从地行事。具体应对措施包括:针对不同算法黑箱模型,满足算法系统的可解释性需求;解释标准应侧重于理解和信任等心理因素;测试提供解释的各种方法,并根据现有问题制定有关可解释性的法律规则,以应对公共活动中自动化决策的挑战。如英国信息专员办公室(ICO)发布了人工智能决策解释指南,根据算法本身是否为黑箱算法,并考虑到其无法解释和神秘的性质,对算法进行分类;当存在其他非黑箱算法时,优先适用这些算法,如线性回归、决策树、k近邻、广义加性模型等。此外,应当依法核实政府及其部门的权力和责任清单,避免“权力黑箱”出现,消除腐败空间,保证权力公开透明、有序运行。

(二)凝聚利益相关者的治理共识

法律规则作为约束措施,可以对算法决策进行优化。实务中产生的问题与历史上的制度歧视类似,能通过凝聚共识方式来解决。算法歧视不是自动化决策问责制的必备因素,不同群体充分地表达利益诉求能解决治理偏见问题。运用法律规则解决算法歧视和治理偏见过程中,需要注意利益相关者的多元性。技术系统涉及多个利益相关者,包括编译算法程序代码的开发参与者、为算法操作提供必要数据的供应参与者、使用数据执行算法模型的培训参与者、制造人工智能系统的生产参与者和部署可操作人工智能系统应用的参与者,这些利益相关者的行为可能导致算法侵权;如算法程序代码开发主体的疏忽,导致算法程序操作中的错误,或者数据提供主体所提供数据中的偏见,导致算法决策结果中的歧视性影响等。泉州市某中心受访负责人坦言,“就中立性而言,技术本身没有价值,但算法设计者有可能带来价值倾向;自动化行政过程中,可能缺乏陈述申辩、救济的环节,算法歧视、算法偏见的现象层出不穷”。具体的对策是:首先,当利益相关者借助算法力量形成自己的意见时,行政机关应当注重推动共治的形成。其次,算法作为争抢权力的关键点,本身包含着一种价值判断,应当注意避免算法出现歧视或者不公的现象。最后,为了解决自动化行政系统的主观偏差,应当使用第三方评估监控机制来消除治理偏见的风险。

(三)承认技术力量持有者的权力

技术和权力这两类要素并不相互独立,技术权力是基于基础技术占据技术优势,并对其他主体施加控制力或约束力。技术自主性深刻地改变了传统的权力运作方式和行动机制,统治通过技术扩大了影响力,并为权力提供了足够的合法性。人工智能的技术力量主要由传统的公共权力和社会权力驱动,即通过人工智能技术掌握控制他人的权力。泉州市某中心受访员工也提出了疑虑,“人工智能技术力量的持有者有可能滥用权力,利用人工智能的黑箱属性作为盾牌,将个人价值判断纳入自动化决策过程,侵犯普通群众的权利,逃避法律监管”。技术权力异化为治理权力过程中,产生了两难选择。一方面,作为社会权力持有者(如人工智能的设计师、制造商)有能力超越国家权力,处置他人的合法权利,这是国家权力无法接受的;另一方面,国家权力的过度参与可能会阻碍人工智能的发展,这也是社会权力持有者无法接受的。具体应对措施包括:首先,承认社会技术力量的存在。人工智能算法有自己的工作逻辑,它通过高技术性、复杂性和不透明性隐藏了自己的强制性特征,也为算法技术力量的隐含功能提供了条件。其次,有条件地承认社会权力持有者的技术权力。人工智能算法的工作机制产生了社会的隐性技术力量,应当通过重构社会权力,将符合国家价值理念的内容扩展到现实空间。最后,平衡国家权力和社会权力的关系。自主技术能够行使国家和社会赋予的部分权力,特别是通过承接从国家(政府)转移而来的权力,将其施加于权力对象。人工智能技术渗透到权力运行的过程中,应当平衡国家权力与社会权力之间的关系。

(四)确立以人为本的理念

行政组织对人工智能和自动化系统的使用表明,办事人员越来越依赖技术来实现各种目的,包括公共服务的提供、分析、监测和监管研究。泉州市某中心受访负责人指出,“自动化行政系统提供了可以帮助甚至替代人类行为的新功能,可能会导致相关部门工作人员在决策过程中产生惰性思维”。人工智能在公共领域的运用可能会出现错误或不准确,对人工智能的日益依赖会导致决策内容与其所承担的价值观(如公开、透明、解释、监督)发生冲突。而将以人为本理念整合到自动化行政实施中,能解决技术依赖和价值观偏差问题。具体措施包括:首先,由数据科学家、人工智能专家、领域专家和其他利益相关者参与协作开发,让普通群众理解数据,实现适当的功能和有效评估自动化系统。其次,技术对公民权利和公共利益带来了重大影响,应当确保人工智能仍然是辅助工具,发挥人类的主体作用,不扭曲立法程序或威胁民主。再次,现实的复杂性以及对更精确和技术性立法的需求,为完善人工智能的适用创造了机遇,但必须谨慎行事,以保持技术和民主原则、权利保障之间的平衡。最后,尽管机器学习系统可能比传统的统计技术更具自主性,但它们仍然需要人类创造者和监督者指定目标、命令和后果。因机器学习算法缺乏谋求私利的意图,人类应当保留对算法规格及其输出转化的监管行动的最终控制权,并由授权的政府官员设置目标,以此有效地避免歧视或者偏见。

(五)“落实最小损害原则”

人工智能在社会中的日益普及,引发了人们对人工智能系统放大现有偏见和不平等的担忧。泉州市某中心受访办事群众认为,“随着自动化行政系统收集、处理和分析大量个人信息,个人越来越容易受到数据利用和监控,职权部门需要加强对个人数据和隐私权的保护”。人工智能时代下,行政机关运用自动化行政手段不断扩展公权力,会引发私权利侵害问题。如税务部门通过自动化系统访问到大量数据,可能对私权构成严重威胁;尤其是在收集数据环节,未经授权的访问或滥用私人数据会引发严重的侵权现象。具体措施包括:首先,行政主体应当关注私权保护问题,特别注意有偏见的历史数据的运用可能使歧视永久化,并导致行政给付、行政处罚等领域产生不公平决策。其次,当自动化行政不可避免地侵入私权领域时,应当区分对不同权利的限制程度。有些权利,如生命权、不受酷刑的权利、不被奴役的权利是绝对的;而有些权利则不是,例如,在公共紧急状态下,国家有权克减大多数人权;其他权利,如隐私权和言论自由,则受到限制,但是对这些权利的任何限制都应是例外,并应基于合法目的。最后,必须强调的是,任何权利的限制都必须符合法律,并且是必要的和相称的,符合最小损害原则。

结语

依托算法和算力的快速发展,人工智能时代的自动化行政为提高行政效率、减少主观偏差提供了技术可能。但伴随着自动化行政由强人工干预迈向无人工干预,更深层次的治理风险也随之浮现。构建与各类自动化行政相适应的有效规制框架,是行政机关运用人工智能技术履行公共职责的关键所在。本研究通过实证分析,尝试对自动化行政的规制路径作出初步探索。然而,受限于实际案例与访谈样本的不足,当前研究尚未能完全涵盖人工智能时代下自动化行政的全部规制路径。自动化行政融合了法律、计算机科学与管理学等多学科知识,适宜采用跨学科研究方法。未来研究将继续依托这一方法,深入探寻其规制路径。