打开网易新闻 查看精彩图片

作者 简介:宋华琳,南开大学法学院教授、博士生导师;唐曼,南 开大学法学院博士研究生。文章来源:《学习与实践》2024年第4期,转自学习与实践杂志公号。注释及参考文献已略,引用请以原文为准。

摘要

人工智能体执法正成为数字法治政府建设的重要表现,将会对以人的行为作为逻辑底色而建构的法律秩序形成冲击。人工智能体或许可以拥有有限的法律人格及有限的责任能力,并为一般行为承担法律责任,但却可能面临执法权行使正当性与执法能力不足的困境。因此,人工智能体不适宜执法或行使公权力,只能承担事务性公务,其执行公务引起的责任可由人工智能体自身、供应商以及行政机关共同承担。

引言

人工智能体(artificial intelligence agent)即装载了通用人工智能的物质载体,是一种“集机械、电子、控制、计算机、传感器、人工智能等多学科及前沿技术于一体”的高级智能机器。根据自主性与智能化水平,可将人工智能分为弱人工智能(ANI)、强人工智能(AGI)与超人工智能(ASI)。随着技术的迅猛发展,以及政府对人工智能技术利用程度的不断深化,终有一天高度智能化的人工智能体或将取代人类,成为“智能公务员”上岗执法,在技术加持下超越执法中的辅助地位,蜕变为人类执法者的“电子同事”。一些国家正不同程度地将人工智能体嵌入执法过程,例如,在美国人工智能体参与了警务执法,日本多摩市提名了人工智能体为市长候选人,印尼启用“机器人公务员”。中国首批检验检疫智能执法辅助机器人业已正式上岗。这些实践表明,令人工智能体执法已有一定的现实可能性和未来预期性。若人工智能体在执法过程中存在严重的执法过当行为,对相对人的身体或财产造成了损害,则可能产生问责问题。这不仅关乎行政权力的配置与正当行使,也与相对人的权利保障和救济休戚相关,还可能给行政法上传统的行政主体、行政行为、行政问责、国家赔偿等理论带来挑战 。

一、人工智能体执法责任问题的缘由及维度

我国行政法领域尚缺乏对人工智能体执法问责的关注。行政法主流观点认为,行政法上的责任主体包括行政机关及其工作人员,行政责任的限定与控制不能仅仅停留于组织层面,还必须到达行政人员个体层面。在人工智能体履行执法任务的场景下,如果剥离了执法人员的个案处置和意思表示,人工智能体应责性难题可能会愈加凸显。

(一)人工智能体执法责任问题的缘由

人工智能体介入行政执法最主要的意义是,人工智能体的参与改变了“行政行为由行政机关及其工作人员作出”的预设,改变了行政行为运行的底层逻辑,从而对以行政行为为中心建构的行政主体、行政权及行政法律责任制度形成了冲击。

1.由人工智能体最终作出行政决定

在人工智能体执法场景下,智能体 代替执法人员实施执法活动,制作完成并送达行政决定,成为生效行政决定的作出者,如令机器人代替交警实施路面执法,其对停放车辆加贴罚单的行为。行政法学界多数观点承认,人工智能体的介入并不会影响行政行为的证立,即前例中由机器人作出的“全自动行政行为”的属性仍是具有法效性与处分性的行政行为。

传统观念上,法律关系是人与人之间的关系,法律行为则是由人或人的组织来作出,问责一般遵循“责任归属于行为作出者或权力归属者”的逻辑。因此,行为由谁作出、权力由谁行使,是确定问责主体的重要标准。当作为人工智能体的机器人作出最终的处罚行为时,随之而来的问题是,假如处罚行为中产生了个人执法责任,那么责任是否归属于人工智能体。从相对人的角度看,谁作出了行政行为,谁就是被其追究的对象,如果是人工智能体对相对人具体实施了行政行为,该人工智能体即“应当负责”的人。若人工智能体无法为自己的行为承担责任,对相对人而言,可能面临一种“有组织的不负责任”。

2.人工智能体行使了决策与执法权

当行政行为不但在形式上由人工智能体“制作产出”,其实质的规制内容也由人工智能体加以抉择、判断时,人工智能体还事实上替代行政人员成为了决策者,行使了原本掌握在执法人员手中的公权力。即人工智能体就过程中的部分决策提供“专业意见”,如果这对决策者的推理产生实质性影响,则人工智能体也可能构成事实上的共同决策者。前例中,机器人作出处罚决定时,即实质上独立行使了行政处罚权。若其不能为行使权力的行为承担责任,则可能导致责任虚置问题。

例如,原告使用的自动化审批系统因故障对相对人作出不予许可的决定,在后续审查中,行政机关和法院任一方都无法查明究竟是什么原因导致了系统故障。该故障的出现,不能直接归责于行政机关,也不能直接归责于系统的供应商,更不能归责于相对人。本应承担责任的自动化系统却因法律上客体的身份,而无法承担实际上由其引发的责任。法院最终从程序入手,从程序违法的角度判令行政机关承担相应责任。但这实际上是“矛盾转移”的权宜之计,很难说是否真正实现了公平。权力应与责任相伴,行政权的行使既是义务也是职责,行政权不应被随意放弃、转让。当人工智能体行使行政执法权时,所面临的深层次问题是,如何配置与权力相伴而生的义务和责任。

3.相对人权益保障的需求

由于行政执法能力经技术加持后大幅扩张以及“全景敞视”管控机制得以形成,出于“同等武装”的公平考量,需给相对人提供更加充分的权益保障与救济渠道。相对人是行政执法管理的对象,在人工智能体执法的场景下,相对人的权利保障和救济机制需要同步更新。如果不能配套设定人工智能体的行政法律责任机制,相对人可能面临救济无门的困境。实证研究表明,在自动化执法行政诉讼案件中,相对人对行政活动合法性的质疑点已经从传统的“主体”“程序”“事实”问题,扩展至“处罚作出时点”“违法信息告知”等与智能体行为密切相关的过程性问题。这说明,人工智能体执法对相对人带来的不适已经导致其产生了寻求救济的强烈需求。由于目前缺乏人工智能体执法责任的规范和制度供给,在多数情况下,法院会以相对人诉请裁判的问题“缺乏证据”“不属于本案审查范围”等为由,拒绝原告的诉求,关上相对人请求救济的法律之门。

这不利于相对人的权益保护,也不利于约束人工智能体的执法行为。在人工智能体执法场景下,既然由自动化系统、机器人等人工智能体处置相对人的权利义务,也应为相对人提供相应的追责机制。相对人能否对执法的人工智能体行使问责的请求权,审查部门能否对人工智能体的行为加以问责,都是需要解决的问题。

(二)探讨人工智能体执法责任的维度

行政法学领域尚未对行政法律责任的构成要件形成体系性的分析框架,也未就此形成学术共识。本文将借鉴民事责任和刑事责任的分析框架和要件,采用“主体性-责任能力(行为能力)-执法资格(执法权)”三重递进式维度的责任分析路径,探讨人工智能体有无可能成为行政法上的执法人员并承担执法责任的问题。

在第一重维度,要解决人工智能体是否具备法律上主体地位的问题。因为没有主体地位,就失去了承担责任的最基本条件,一切的责难、否定性评价、惩罚也会因无以附着而失去意义。在第二重维度,由于责任的根据是行为或自由意志,即便人工智能体具备法律主体地位,倘若没有实施行为的能力或没有意志,执法行为导致的责任也无从谈起,因而需讨论人工智能体的行为能力问题。在第三重维度,由于作为执法责任主体的执法者除却法律主体地位和行为能力两个基本条件外,还须具备执法资格和执法权,才能实施执法行为,才可能产生执法责任问题,所以还需探讨人工智能体的执法资格问题 。

二、人工智能体的法律主体地位及其对问责的意义

各国在行政执法中普遍引入人工智能体,意在借助其高效、智能、便捷、公正、工作状态稳定等优势,克服公务体系过于庞大的现代病。但人工智能体并不能无条件替代人类执法者。根据我国《公务员法》的规定,公务员具有自然人和国家工作人员的双重身份。一方面,公务员是年满十八周岁且具有中华人民共和国国籍的公民,是具有独立人格的自然人;另一方面,公务员依法履行公职,在执行公务时是代理国家行为的国家意志载体。如果缺乏了独立法律人格或国家行为代理人中的任一要件,则不符合公务员的法律要件。其中,公务员的独立法律人格是首要和基础条件,不具有独立人格即无法享有权利和义务,也无法参与行政法律关系,无法与国家之间缔结委托代理关系,更遑论承担行政责任。因此,要讨论人工智能体在行政执法中的地位及问责,其基础在于,人工智能体能否获得法律主体地位。

(一)人工智能体获得法律主体地位的现实基础

1.人工智能自主性大幅提升

在传统观念中,无论是机器或植入其中的算法,都只能属于“物”,即法律上的客体。随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的飞速发展,人工智能的自主性和智慧程度在不断增加,它正在逐渐产生自主意志,并开始脱离人的支配。就强人工智能而言,智能机器人可以突破设计和编制的程序范围,在设计者或使用者的意志外进行自主决策,实现自身意志。有研究指出,在技术层面甚至可为人工智能体注入“人工良心”,使之成为理解道德和人类社会准则的道德主体。不宜再将达到以上智能水准的人工智能体视为“工具”,而应考虑将其升格为“主体”。虽然目前的技术水平还尚未达到前述水准,但就技术发展的趋势而言,从弱人工智能到强人工智能可能是从量变到质变的过程。随着人工智能日趋“独立”“自主”,其有可能逐渐具备获得法律主体地位的现实条件。

2.人工智能体与人的界限逐渐相对化

一方面,随着人工智能体广泛介入生活,人们已经身处一个算法无处不在的时代,日常生活变得数字化、可计算。人们也被迫卷入算法世界,如同可拆解的机器一般,被拆为可以计算的数据或代码,这一定程度上消解了人的主体性。

另一方面,随着医疗科技的飞速进步,人体或脏器的若干部分都可以由人工产品取代,这些“身体革命”使得人机混合的状态日趋增多。在神经工程领域,“脑机接口”已成为最活跃的研究方向之一,意图通过在大脑与计算机或其他外部设备之间建立通信通道,实现脑与机器的互联。技术手段正在使数字与现实、主体与客体、人与物的界限变得相对化。“意识”和“身体”逐渐不再是人类所专属的特性,机器也可以利用“拆解人类”的逆向工程来具备人的特性,实现不以人体为中介的“知行合一”。赋予这样的机器人以法律人格,具有一定的现实合理性。

(二)为人工智能体赋予有限人格的法律论证

目前,我国尚无法律规定人工智能体的法律主体地位。在域外,2016年欧洲议会提出了“机器人法”立法建议报告,其指出从长远看,需要创设机器人的特殊法律地位,以确保至少让最复杂的自动化机器人能够享有“电子人”的法律地位,使其能够在自动化决策或以其他方式与第三人独立交往的案件中,能为自己造成的任何损害提供救济。俄罗斯首部机器人法草案《格里申法案》提出,机器人可能在有限的特别权利能力范围内获得权利主体性,“机器人-代理人”甚至可以作为民事诉讼的参加者。

理论界对此大致持“主体说”与“客体说”两种立场。其中,持“主体说”者为多数,具体有“代理人说”“电子人格说”“有限人格说”“人格拟制说”等观点。基于此,可根据智能化和自主性等级的不同,为人工智能体赋予不同完整度的人格。独立自主的意志能力是认定法律人格的核心要件,是拥有权利能力的前提。对于尚无法脱离预设程序、无法脱离人的约束而活动的弱人工智能而言,应将其定位为“客体”。而对于强人工智能、超人工智能而言,其不受限于预设的程序,可以摆脱人类的约束而独立思考、自主决策,能够拥有意志并将自己的意志付诸行为,不宜将其归为“客体”,而可为其赋予法律人格。但出于功能限制,不同应用领域的人工智能体无法在主要功能以外的领域也具备独立、自主的意志能力,故其无法在所有领域都满足赋予完整人格的条件,最多可以为其赋予有限人格。

另有观点认为,人工智能体无法具备情感、理性等人类的精神品质,无法真正实现“类人化”,并据此认为人工智能体无法具有法律人格。需指出,法律人格具有拟制性,它是法律为了调整不同法律关系、进行权利义务配置或追求特定目的,而选择为某些实体赋予资格的一种技术处理。“是否像人”并不是某实体获得法律人格的依据,只有符合立法者所认为的社会需求的实体,才会被赋予法律主体资格,如历史上还曾有为河流、建筑、动物赋予主体地位的实例。为人工智能体赋予有限人格,有利于明确责任主体、简化责任份额分担的复杂性,有利于解决人工智能体介入社会治理所引发的诸多法律问题。可以通过“拟制”、设定“电子人格”等方式,使人工智能体成为新的法律主体,如此,实施执法行为的人工智能体便具备了承担行政法律责任的最基本条件。

(三)人工智能体有限人格对于行政问责的意义

对于参与执法的人工智能体而言,如被赋予有限的法律人格,则意味着人工智能体在特定领域能享有有限的权利、承担有限的义务和责任。但能否以人工智能体的有限人格为依据,令人工智能体承担行政执法责任,则还需进一步论证人工智能体的责任能力与职位资格。

就责任能力而言,具有法律人格并不意味着人工智能体具备行为能力和责任能力,只有具备责任能力的主体才能够为其不法行为承担责任。

就职位资格而言,公务员承担行政法律责任的前提是具有职位、职责,且从事了违反职责义务的行为。换言之,当自然人尚无公务员职位,或当获得职位的公务员没有实施违反职位义务的行为时,也不会承担行政法律责任。同理,如果人工智能体并无职位及职位所载的义务,就无法真正作为执法主体而承担行政法律责任。

三、人工智能体的责任能力

(一)行政责任能力及判断标准

1.行政责任能力

责任能力系因违法或违约而承担法律责任的能力。行政权力、行政行为和行政责任三者构成了行政法的基本结构。行政法律责任是行政机关在个案中因行政行为而产生的面向相对人的法律责任,其在先的行为是产生责任的前提和基础。

我国行政法通说以行政主体及公务人员为行政责任的承担主体。公务员并非行政主体,但能为自己的职位行为承担行政法律责任。在行政执法中,还存在以岗定责为主、以人定责为辅的职责分配原则,将责任明确分配到具体执法岗位,对应到具体人员。执法人员可基于违法或过错行为而承担行政赔偿、民事侵权、刑事责任等外部责任,以及行政处分、纪律处分等一系列的内部责任。

若以人工智能体代替执法人员上岗执法,并使之承担行政法律责任,则应以其具备责任能力为前提。例如,以具有完整人格的机器人代替公务员实施行政强制,其在执行强制行为过程中,对相对人的身体或财产造成伤害时,能否承担行政法律责任的判定,就需要追问机器人的责任能力。

2.行政责任能力的判断标准

判断责任能力的有无,以行为人对自己行为的辨认能力与控制能力为根据和标准。实践中,一般以年龄、精神状态、心理状态、智力水平、意志自由状态等作为客观指标,来判断行为人的辨认能力和控制能力。如果行为人无法辨认客观情形,缺失对自己行为的控制能力,则可能被认定为缺乏责任能力,从而减免其责任。在现行法框架内讨论人工智能体的行政责任能力,或需遵循此标准,检验人工智能体对客观事物的“辨认能力”以及对自己行为的“控制能力”。

(二)人工智能体的“辨认能力”与“控制能力”

1.人工智能体具备优于人类的“辨认能力”

法律意义上的辨认能力是考察行为人的认识能力,这是行为人认识外在环境及自身行为,以及认识自身行为内容、社会意义和法律含义的能力,是对行为人进行非难、令其承担责任的基础。可将辨认的过程分为两步:第一步是对外界环境和自身行为状态进行感知与识别,第二步是将感知与识别的信息与法律、社会价值、道德等规范和知识相结合,判断自己的行为和所处的状态在法律上可能是何含义、具有何种效果。

自然人的感知能力通过感官和神经系统获得,可谓与生俱来;但其对各类规范性知识和据此对感知信息的处理却不是先天具备的本领,而是通过后天的学习与积累获得。相较而言,人工智能体可以借助传感技术,通过“电子眼”“电子耳”“检测仪”等设备对外界与自身行为状态加以感知,甚至能将感知到的信息精确转换为可观测数据,因而具备比人类更强的感知与识别能力。人工智能体通过自主学习系统,不仅可以获知上述信息在法律层面的意义,并且可凭借强大的算力,获得相对更为全面和系统的认知。因此,人工智能体不但具备辨认能力,甚至可能具有优于人类的辨认能力。

2.人工智能体具备一定的“控制能力”

控制能力即行为人在辨认到具体环境和自身行为的法律含义后,能控制和约束自己,不去实施法律所禁止行为的能力。如果行为人无法辨别自己行为在法律上的含义,或者能够辨别自己行为的法律含义,却无法控制自己的行为时,对其责难是无意义且不正当的。控制的过程也可分为两步:第一步是产生“不能行法律所禁止行为”的意志指令,第二步是依据该意识从物理层面控制自己的行为。

自然人的意志控制有赖于理性、毅力、信念、情感等心理机制,其行为控制则还需依靠身体运动控制系统的辅助。对人工智能体而言,毅力、情感、欲望等心理机制还无法被数字化和计算,无法确保人工智能体具备并利用这些人类特有的思维和心理机制,来控制自己的行为。人的意志能力十分复杂,人工智能体只能有限地模拟人的意志,而难以对其全面复制,这也决定了人工智能体只能部分地拥有意志及控制能力。

(三)人工智能体具备有限的责任能力

人工智能体只有有限的意志和控制能力,这决定了它只能在有限的范围内为自己行为的后果真正负责。这种“先天不足”使我们无法期待它能像公务员一样,总保持“依法而为”的期待可能性,所以无法对其完全地课以行政法律责任。换言之,并不能保证在行政执法中启用人工智能体后,它能够像自然人一样会“听指示”“办事”,并对自己的过错承担法律责任。根据《公务员法》的规定,公务员应为具有完整行为能力和责任能力的自然人,人工智能体尚无法满足成为公务员的能力要求。如果要利用人工智能体代替人类执法者履行部分执法任务,则需事先明确人工智能体的能力范围。明确在何种范围内其可自行承担责任,又在何种范围内需另设责任承担主体,来为人工智能体的执法行为承担责任。否则,一旦人工智能体在执法过程中出现伤人、损坏财产或强制措施过当等行为,就有可能陷入责任主体不明、责任分配难以厘清、纠纷久争不决的窘境。

四、人工智能体的执法资格

(一)获得身份关系的可能性

1.公务员职位

公务员是实施行政任务、行使执法权的最主要群体。公务员与国家之间是职位关系,公务员基于职位获得职权并承担职责,该职责即公务员所承担的第一性义务。公务员违反职责或在履行职责过程中实施了违法、不当行为时,能够引发行政法律责任,该责任即第一性义务所引起的第二性义务。因此,公务员身份的获得与公务员行政法律责任的承担,都以职位关系的成立为前提。如果令人工智能体作为“机器人公务员”,其也须首先成为职位的执掌者。

在我国现行公务员法律制度下,满足资格条件的自然人须通过任用程序来形成职位关系。一般而言,公务员的任用条件包括了国籍、年龄、身体与思想状况、文化程度、道德品行、政治立场等,而任用程序的功能之一,是审核和确认自然人是否具备任用条件。人工智能的要素在于算法,算法立场虽素有“技术中立”之说,但算法的设计者与程序的编制者有自己的偏好,通过设计者立场和价值观的转化与植入,人工智能体也能拥有先入为主的立场。可以通过年龄、身体健康状况、文化程度、道德素养等指标,来衡量自然人的工作能力;也可以通过测试人工智能体配备的软硬件设施,来衡量其智慧和自主程度、工作能力,并能够不断进行有目的的调适。在依靠智力与体力的工作中,人工智能体具有独特的比较优势。可见,一般而言,人工智能体具有满足公务员任用条件的潜在能力。但在形式上,尚需针对人工智能体的特性建构相应的任用程序,以测试人工智能体满足任用条件的情况,明确职务范围,厘定职责与权限。如果人工智能体可以获得职位,则增加了其成为执法者而承担行政法律责任的可能性。

2.行政助手

除公务员以外,行政助手也能够协助实施部分执法任务。行政助手本没有职位和职权,相当于行政机关的“延长之手”。行政助手与委托机关之间的关系,一般采“功能性的公务员”说。当行政助手执行的任务属于高权性质的任务,协助措施与所委托办理的事项有紧密关联性,且这种关联性使得行政助手的自主空间受限制时,就更有可能认为该助手属于“功能性的公务员”,此时,行政机关不得主张自己无需为行政助手的行为承担责任。助手在协助过程中因故意、重大过失而导致的责任,行政机关有权对其追偿。但行政助手仍具有自然人身份,可基于自然人人格,对其协助执法过程中因故意、重大过失而导致的损害承担赔偿责任。人工智能体未获得职位关系时,或许也可以行政助手的身份协助履行执法任务,并基于其有限的法律人格,承担相应的法律责任。

(二)行使执法权的正当性

1.行政权运行的宪法正当性

行政权的配置和运行应当符合宪法上的民主原则,权力的运行与人民意志之间应当建立必要的联系。一方面,在“组织-人员”维度上,承担行政权的组织及实际职务的担当人应当按照宪法要求,处于一个没有中断、能够回溯到人民意志的正当性链条中。另一方面,在“实体-内容”维度上,行政权具体内容的行使也要源于人民的意志传递,遵守依法行政原则。当没有人类执法者介入,由人工智能体全过程行使执法权时,人的意志被排除于程序之外,难以确保依靠预先的程序设计,就能够如实复刻执法权依法运行的过程。同时,让人工智能体像执法人员一样适用法律,改变了实体法的适用方式,构成法律适用机制的变革,难以确保其自动化的法律适用不会偏离立法意图。此外,因算法“黑箱”问题,人工智能体执法决定能在多大程度上接受监督陷入晦暗不明的境地,也使得权力行使的合法性与正当性陷入不确定状态。因此,让人工智能体行使执法权,其权力运行正当性要受到宪法层面的诘问。

2.行政权不可随意自由处分

与私权利不同,不可根据权力执掌者的个人意愿随意处分行政权。对于行政机关而言,职权与职责是相重合的,行使职权既是权力也是义务,自行放弃职权可构成失职。在人工智能体执法场景下,其代替执法人员开展执法活动,进行裁量判断,有可能使权力实际上落入第三方企业之手,乃至有将执法模式由公共执行变成“私人执行”的风险。因此,人工智能体执法时需要防范权力的非法处分,防止因“技术俘获”而使行政机关沦于“空心化”,防止行政机关借执法权外包而规避责任。

3.法律保留与授权明确性原则

行政执法往往涉及行政处罚、行政强制等干预性行政手段,其与相对人的人身自由、财产权、人格尊严等基本权利休戚相关,执法者应当恪守法律保留原则与授权明确性原则。人工智能体适用法律的过程并不透明,难以预测和监控其适用法律后生成的法律效果,也很难从外部体察其对执法权的行使是否超越法律授权的范围,以及其规范创制的行为是否偏离立法授权的初衷。人工智能体执法模式下的全自动行政还可能引发既有行政程序的变革,影响相对人的程序权利。因此,在需要转译、裁量、解释不确定法律概念的场景中,让人工智能体行使执法权,可能并非可取的方式,因为这恐难以通过法律保留原则及授权明确性原则的检验。

(三)人工智能体的执法能力

行政执法人员不仅需满足公务员身份的一般要求,还需符合更多的资格与能力条件,且以法律知识储备、法律适用能力为关键条件。相较而言,人工智能体在知识储备和学习方面有优势,但在法律适用方面恐有力有不逮之处。

1.认定事实不等于纯粹的感知与测算

法律适用中的事实认定并不等同于对现实生活的感知、观察与测算,而是一种建立在感知基础上的思维活动。生活事件的观察和陈述视角千殊万异,而事实认定要求执法者只择取法律上可能有意义的部分作为陈述“案件事实”的素材,这个过程需要执法者选择、诠释、衡断、剪裁。对执法者事实认定的要求并不同于自然科学中对实验观察者的要求。后者追求“准确”,论“是”与“否”;而前者追求法律上的“正确”,论“是”与“非”。对人类执法者而言,案件事实并不是“给定的”,而是经过了思维加工的。人工智能体所假借的各种观测设备擅长精准地反映客观状态的数据,但未必能够作出事实认定所要求的“恰当陈述”。

2.法律适用遵循复杂的逻辑

人工智能技术遵循统计和数理逻辑,但法律世界中的问题并非都能转化为数学问题,也并非都可计算。计算机之父图灵曾指出,世上的问题只有一部分是数学问题;数学问题中只有一小部分有解;有解的问题中只有一部分是理想状态的图灵机可解决的。而人工智能可以解决的问题又只占其中一部分。自然科学中的因果是自然存在的,而法律系统中的因果则是后天建构的。法律适用讲求的“因果”是人们简化“动机-行为”关联的一种形式,其中往往还掺杂着一些不可预见的因素和可能性。此外,人类执法者适用法律的重点在于在不同系统之间进行反复的“意义关联”,在交织的关系网中厘清法律关系的脉络。而人工智能体却只能作出线性的单向运算,即便它具有了自主性和学习能力,也无法更改数理与统计的底层逻辑。这从根本上决定了人工智能体缺乏像人一样适用法律的能力。

3.法律适用需要基于经验的判断

行政执法中,案件事实需要经过执法者的法律判断。法律判断不仅需要对案件外观进行感知,更需要以理解和解释人类行为为判断基础。人类行为多为目的导向的行动,人类执法者之所以能理解这些行动,是基于其自身的行为经验。当执法者与行为者同属于人类,其能够理解人类的“动机-行为”机制。而人工智能体并非人类,无法获得人类的全部体验,也无法真正理解人的行为,仅靠外观上感知到的信息来对案件事实作出法律判断,有时会得出片面的结论,有难以实现真正的公平之虞。

结论

政府对人工智能的深度利用是治理现代化的体现,使人工智能体与行政执法结合,能够有效提升执法效能、节约资源、便捷相对人。但人工智能体的深度介入更改了法律运行的底层逻辑,其追求模拟、替代人类、介入执法关系,使得传统的“行政机关-相对人”的交互模式,转变为“行政机关-人工智能体-相对人”的新形态。将二元的法律主体格局变革为三元甚至多元格局,让“行政无处不在”的社会逐渐演变为“智能无处不在”的社会。这对行政主体理论形成冲击,并旁及行政行为、行政责任分配制度的嬗变。

事实上,无论是否赋予人工智能体法律主体地位和执法资格,行政机关都应当明确智能执法的背后必须驻守着行政机关,不得肆意削减行政执法中的人为因素,而致使行政机关被挤出行政执法的“环路”,甚至丧失主导和控制权,致使产生责任漏洞。行政机关需要慎重对待的不仅是人工智能体执法的法律主体与执法资格问题,还需考虑其是否适于裁量与抽象思维,是否具有准确、清晰的思路,是否透明可问责,以及是否足以独立认定事实、适用法律、作出决定、处置相对人的权利义务。不应匆忙拥抱新技术,而罔顾人工智能以“润物细无声”的方式控制行政机关、侵蚀公民权利、消解民主问责制、危及公法秩序的风险。“执行是现代规制国家的矛尖”,执法机关需要衡量自己掌控人工智能的能力,遵循比例原则,妥善处理技术升级与坚守法治之间的关系,防止在执法中滥用人工智能。

还应看到,人工智能体执法是时代发展和科技进步的大势所趋,也是我国发展智慧政府、建设法治国家的重要环节,与之相关的法律思考必须具有一定的前瞻性。面对人工智能体执法,如何擘画具体的制度建构,如何安排人工智能体与人的分工,如何设置人工智能体执法的程序规定,如何在不同的发展阶段建构不同的责任分配体系,仍是亟需探索的未竟之题,需要更为深入的行政法学探究。