作者简介: 雷刚,西南政法大学行政法学院宪法与行政法学专业博士研究生;喻少如,西南政法大学行政法学院教授、博士生导师。 文章来源: 《电子政务》网络首发,转自宪行学堂公号 。注释及参考文献已略,引用请以原文为准。

摘要

算法决策在行政治理领域的广泛应用,已经引发了诸多法治危机。在公共行政中,算法决策的技术性程序对法律性的正当程序提出了时代性难题,即技术俘获侵蚀中立性、黑箱机制危及公开性、嵌入模式架空论证性和操纵力量降低公正性。对此,正当程序能够为解决难题提供价值预想,将算法正义、算法信任和算法透明作为算法决策程序的价值维度。有鉴于此,一种“算法正当程序”被提出,它对中立性、公开性、论证性和公正性等方面进行了重塑以消解算法决策程序带来的冲击。“算法正当程序”是正当程序发展的新阶段,赋予了正当程序与时俱进的能力。

一、问题的提出

进入21世纪以来,算法技术在公共行政领域得到前所未有的广泛应用,例如“智慧审批”“智慧城管”“平安工程”“天网工程”等。算法降低了行政治理的成本,提高了决策的质量和释放了数据的力量,从而使得行政治理更加有效。算法深度嵌入行政治理,不仅重塑了行政的方式和过程,而且促使公共行政向着算法行政转变。《法治政府建设实施纲要(2021-2025年)》将“智能高效”作为法治政府的建设目标,强调运用人工智能等技术手段促进依法行政,实现公共行政智能化与法治化的有机融合,这在某种程度上是对算法行政这一新的行政模式予以明确。

近年来,学界对算法行政进行了系统性研究。具言之,算法行政是公共行政发展的新面向,它强调行政机关在履行职责时越来越依赖于算法技术,以消除事务治理中的“残遗部分”(remnants),真正地实现全面性治理。那么,政府利用算法技术对不同的治理场景予以数据关联,整合社会、经济、环境等领域的治理要素,构建起“场景关联”的智能决策体系。与传统行政相比,算法行政实际上是将算法作为公共行政的治理术,是政府的算法治理,是一种公共行政与智能算法有机融合的新型范式,其内核是自发式的问责制治理。在此背景下,有研究指出,政府通过算法进行治理,使得公共行政中的结构性、制度性和程序性问题简化为纯粹的技术问题,以算法技术辐射甚至替代价值关怀的制度设计,会让技术逻辑转变为“支配性逻辑”。此时,学界开始关注到算法行政带来的公共性隐忧,即“算法治理”异化转变为“算法支配”。换言之,算法的技术异化导致政府治理被边缘化,算法行政形成的“负效应”日益凸显。

算法行政的“负效应”之一,即表现为对公共行政中正当程序的冲击。相关研究认为,公共行政中行政主体与相对人的“人际交互”需要借由正当程序予以协调,因为行政相对人所享有的程序性权利确保其能够介入行政活动,且是作为主体而非客体。算法行政在形塑公共行政虚拟空间的过程中,也自我生成了一套程序规则,即算法决策程序,将公共行政的主体、任务、行为和规则等通过代码转化为数字化“输入-处理-输出”的程序范式。不可否认,算法决策程序对行政程序的精简发展带来了“赋能”,不仅节约行政成本,还提升行政效率。在给付行政中,政府补贴有着严格的申请、审核和发放程序,个人需要经历烦琐程序才能获得补贴,而智能算法极大地精简和优化了行政程序。例如,杭州城市大脑推出“亲清在线”平台,将层层审核转变为在线直达。但有学者指出,程序精简并不等同于程序正义。种种迹象表明,算法决策程序日益对正当程序形成冲击。远可追溯至2005年的杜宝良案,行政相对人在308天中于同一地点被“电子眼”捕捉到交通违章105次,却在未收到行政机关任何通知的情况下被告知需缴纳罚款10500元。不难发现,这一处罚过程明显违背了程序正义。近期有2018年的上海“声呐”电子警察执法纠纷案和2020年江西赣州“交管12123”应用执法纠纷案,两个案例都显现出算法决策正冲击着传统的程序正义。

算法决策程序与正当程序的冲突和发展逐渐成为学界研究的重要议题。算法决策程序使得正当程序的某些关键内容缺省,算法决策程序的内部性、自主性和迅速性钳制告知、说明理由、听证等的实现,因而导致个人在公共行政中的“离场”。面对算法决策程序导致正当程序趋于程式化、机械化的问题,有研究指出,正当程序对于实现算法决策中的共情要求仍然重要,应当赋予相对人“获得共情”的权利。在算法行政背景下,仍旧需要坚守正当程序以保障个人的权益伸张。就正当程序的时代性发展而言,通过数字化引领法治,正当程序应当顺应算法行政塑造出新的程序规则。在相关研究中,一种“技术性正当程序”崭露头角,从透明度、可解释、可问责等方面对正当程序进行与时俱进的更新。在此基础上,通过行政信息公开原则、公众参与原则等调和算法决策程序与正当程序的冲突。进而,基于规则控制和边界划定的“算法正当程序”得以探讨。

综合而言,关于算法治理的研究日益迈向精细化,如何解决算法决策中的程序正义问题已经成为学界研究的重要面向。然而,算法正当程序是算法行政发展中的新思路和新理念,仅有部分学者对其进行初步研究,多是侧重技术理性或者法治原理的单一视角对正当程序进行匡正和补缺,尚未尝试从技术理性与法治原理的关系来系统研究算法正当程序。虚拟空间的算法决策程序事实上影响着现实世界的正当程序,意味着公共行政跳脱出人际交互的程序(process)之治转向人机共存的程序(program)之治。本文提出的算法正当程序是协调“机关-个人-技术”关系的智能程序正义观,与传统正当程序是同源异构,“同”表现为算法正当程序坚守正当程序关于中立性、公开性、论证性和公正性的法治原理,“异”则表现为算法正当程序对算法决策的技术理性予以兼容发展。有鉴于此,本文首先审视算法决策程序对正当程序造成的冲击,分析“技法冲突”下的四重困境;随之从算法正义、算法信任和算法透明的视角出发,阐明算法决策程序应当受制于正当程序,形成“技法互动”的价值维度;最后,基于“人机协作”的行政关系发展之可能性,以“技法相融”的思路体系化建构算法正当程序。

二、“技法冲突”的四重困境:算法决策程序对正当程序的冲击

算法智能化程度的增强消减行政治理中的人为因素,亦使“工具意义辅助手段广泛向法律制度实施方式跃迁的数字化行政变革”,从而在国家权力运行角度引发“机器治人”的担忧。尤其是“机器治人”颠覆了人类决策程序。正当程序确保公共行政中的利益分配或者负担施加是处于信息公开、理由说明、沟通交流等环境中的,以贯彻行政的“人本”逻辑,然而算法省略了密集的程序要求而瞬时自主决策,会挤压正当程序的法治价值,催生“技法冲突”的四重困境。

(一)算法决策程序的技术俘获侵蚀正当程序的中立性

在行政活动中,程序中立要求行政机关应当是不偏不倚的决策者,实现行政的公平和正义。随着行政机关日益依赖算法进行治理,专业性极强的程序模式挤兑着行政机关作为中立决策者的独立空间,继而被技术俘获。在算法行政背景下,技术俘获是指算法决策在公共行政中的广泛部署,导致行政机关深度依赖算法,最终被算法驯服。例如,《道路交通安全违法行为处理程序规定》第19条规定,交通技术监控设备收集的违法资料应当经审核无误才能作为处罚违法行为的证据,然而,被技术俘获的行政机关会在未经人工审核程序的情形下以抓拍系统中的违章信息作出处罚决定,中立决策者身份的消失也就导致处罚程序丧失正当性基础。这个例子真实地发生在现实中,由于抓拍系统存在漏洞导致决策错误,常州市在2020年发生了超千起违章“张冠李戴”案件。

对比来看,人工决策程序和算法决策程序两者之间的程序中立差异在于决策者的角色转换。首先,在算法决策程序中,行政主体中立性决策者身份的显性表现变得扑朔迷离,甚至隐藏在算法背后。在关乎公共利益的行政决策中,一旦个人对决策结果持有反对意见,其应当有权向具体的行政主体提出诉求,有权提请调查以推翻决策者的行为决定。然而面对算法作出的决策,行政相对人若有异议却难以在过程中向明确的中立主体提出诉请,“公民将被评测,但他们不能反过来去评测那些评测他们的机构”。其次,以算法的技术中立性来掩盖行政系统中的偏见。偏见只不过通过编译转化为代码,在算法主导下进一步加深和固化偏见,最终决策结果的客观、中立也只是假象。例如,在美国密歇根州,州失业保险局交由“Michagan”数据融合智能系统来判断申请者是否福利欺诈,因数据污染和代码漏洞而导致上万人权益受损。最后,令人担忧的是算法无法理解“中立”这一概念。“中立”意味着决策者对公平公正、平等对待、便民效率等行政价值予以综合考量,那么以人类思维为基础的公权主体可以在均衡多重价值后承担起中立决策者的职责。相反,算法设计之初所嵌入的公共价值是单一的,通常是行政效率,即使程序中立性涉及的公平性问题被量化和算法化,也只是进一步加剧政府治理的“空心化”,导致政府负责的行政程序走向机器决定的算法程序。概而言之,算法决策对正当程序的中立性进行了技术俘获,对于政府而言,面对一项新兴技术,政府和政府部门就容易受到俘获(capture),被技术俘获的政府试图在算法程序中找到权力寻租的空间,让渡政府责任,继而摆脱责任约束;对于个人而言,算法将其代码化而成为“困在系统”的人,其获得公平对待的程序权利经由代码化而弥散,失去了共情的机会。

(二)算法决策程序的黑箱机制危及正当程序的公开性

程序公开要求公共行政是公开、透明的,即“必须公开地、在毫无疑问地被人们所能看见的情况下实现”。然而,算法决策程序存在着人类无法了解到的处理隐层,即其黑箱性。若行政机关借助算法对个人信息数据进行分析,并将运算结果作为决定个人是否获得福利或者限制个人某些行为自由的依据时,这样的决策过程就存在着不透明不公开的问题。算法的黑箱机制导致行政权力因此具有了“后台性”和“黑洞性”,威胁着公开和透明的实现。可见,算法黑箱给正当程序的公开性带来了风险。

一方面,算法是否公开的争议长久存在。在传统的人工决策中,程序公开包括对职权依据的公开和对认定事实的公开,这两方面已经被政府信息公开制度所固定下来,成为行政正义实现的重要部分。算法公开面临着难题,即“法律保护下的算法黑箱”。在我国,根据《反不正当竞争法》《政府信息公开条例》等的规定,算法通常被认为是受到法律保护的商业秘密或者国家秘密,享有信息公开的豁免性。以个人信用评分为例,个人信用分是通过公共信用信息平台算法运算得出的,多地出台的《个人信用评分管理办法》对信息类型、信用应用、保障措施等方面进行了规定,但基本上回避了评分系统中算法公开的问题。同样,在Statev.Loomis案中,当事人认为使用“COMPAS”对其进行再犯风险评估,侵犯了其知情权,遂要求公开算法,但法院基于算法系统属于商业秘密而驳回其算法公开的诉求。AndrewBurt甚至认为,即使实现算法公开,对于没有专业知识的个人而言意义并不大。相反,遭到黑客攻击的风险与日俱增,即“AI透明度悖论”。

另一方面,即便算法公开成为必要,算法解释也是横亘在行政主体和相对人信任之间的难题。正当程序的公开性要求行政机关应当对作出的决定进行理由说明。但是,算法自主生成决策的过程存在一个问题,即预测变量和预测结果之间缺乏通常认知下的联系,算法解释事实上陷入解释不清和理解不透的局面。因为算法是根据统计学意义上的相关性作出决策,而人工决策是依据法律、事实和经验进行因果推演,所以对前者进行理由说明是要难于后者的。可以说,即使是开发者也难以谙熟其中的运算逻辑,更谈不上行政机关能够很好地释明算法,受到决策影响的相对人也就难以知晓决策形成的规范依据、事实条件和技术规则。因此,算法黑箱让行政相对人无法获悉和理解作出决策背后的复杂因素,相对人“无法判断政府是否遵循规则”,从而导致政府信任危机。

(三)算法决策程序的嵌入模式架空正当程序的论证性

在理想语境下,每个利益相关人“应能评价那些影响他们福利的提案和推进公共善观念的政策”,最终的行政决策是基于商谈所达成的。换言之,告知、陈述、申辩、听证等程序性权利不仅是为了实现公共行政的论证性,而且根据《行政诉讼法》第70条和第74条的规定,这些程序性权利还是公共行政具有合法性的基础。随着算法的学习能力不断增强,算法逐渐从纯粹的技术工具发展成为强大的自主体系,通过“法律代码化”和“代码即法律”的路径嵌入至行政流程,导致发挥着沟通与交流作用的论证程序被压缩和省略。

第一,算法决策过程中的信息不对等导致个人无法提出质疑。行政机关通过算法决策实现治理,而披露义务和信息沟通的规则缺位,事实上形成政府与个人之间的信息不对等。信息不对等亦即个人处于信息劣势境地,且缺乏必要的信息能力,这让其难以了解算法信息和无法真正行使陈述权和异议权,在代码化的程序中丧失话语权。例如,在WillieAllenLynchv.StateofFlorida案中,警方利用人脸识别技术逮捕了涉毒的Lynch,而Lynch认为,其在未能有效访问数据库和了解技术规则的情况下就被定罪是剥夺了其质疑决定的正当程序权利。

第二,算法决策改变公共行政的公共性,“沟通与交流”异化为机器行为。公共行政的公共性是“以人为本”的意蕴,是指公共行政的目标达成和实现效果均是“由具体的人来实践和评价”。“以人为本”意味着行政治理中的人类在场,并通过程序规则实现沟通与交流。然而,在算法决策中,运算是基于代码程序,个人是被高度解析的数据分子,实质上是被运算的对象,表明行政相对人作为道德意义上的主体所应享有的交谈地位被彻底颠覆。与此同时,决策者转变为智能算法,行政意志因而沦为机器意志。人的离场和替代,技术的入场与行动,导致正当程序中“沟通与交流”的公共场域面临着塌陷。例如,在K.W.v.Armstrong案中,一些福利项目使用算法决策直接修改了资格标准,个人“获得通知、评论并参与行政”的正当程序权利被转译为机器运算。公共行政走向“无人”的境地,程序规则被算法解构,“沟通与交流”也就异化为机器行为。

第三,算法决策是瞬时性完成的,行政相对人陈述、听证和申辩的权利形同虚设。算法决策程序是为了追求行政的高效,这种“高效”不是通过行政主体积极作为来实现的,相反是通过技术代替人力来实现的。随着算法越来越多地应用于交通执法中,多地利用“行人闯红灯抓拍系统”抓拍和曝光行人闯红灯,而在曝光违法事实之前,却直接略过当事人的申辩程序。可见,在算法行政背景下,瞬时完成的决策没有将陈述、听证和申辩视为行政合法性和合理性的来源,导致出现个人无法获得“有意义的通知”(meaningfulnotice)、“听证价值被贬低”(devalued)以及行政机关“盲目迷信系统绝无错误”(infallibility)等问题。算法决策所欲达成的行政之“效”,仅是一种形式上的“效率”提升,却牺牲了实质性的“效果”实现。

(四)算法决策程序的操纵力量降低正当程序的公正性

正当程序的公正性所关注的是行政结果的实质正义。算法的自我学习、自我适应和自我优化能力不仅改变了正当程序的程序性要求,而且以一种操纵力量促使算法行政“由程序性的‘服务功能’阶段发展至实体性的‘决策功能’阶段”,对行政的实质正义形成冲击。“一旦权力从人类手中交给算法,人文主义的议题就可能惨遭淘汰”,被算法操纵的公共行政,意味着个人被算法定义,甚至歧视,裁量被算法隐匿,甚至消除,滑入“技术利维坦”的境地。

第一,算法歧视系统性存在。公正性要求行政机关作出的决策是不偏不倚的,是不附带歧视因素的。然而,如果算法决策程序“输入端”所馈入的训练数据集存在污染的情况,或者算法在编码过程中植入了设计者的偏见,那么,算法可能对人类社会进行再一次的结构化分层设计,侵蚀个人能够有尊严且自主生活的空间。算法决策逻辑本身隐含着歧视的危险,算法对社会现实中既存的社会偏见、歧视观念、歧视文化、歧视制度等“知识”予以结构性学习,创造出集团属性的片区(segment),继而将个人精准归类(categorize)至特定的片区中去,形成“基于‘集团’属性而歧视个人的情况”。例如,在警务行政中,利用数据分析犯罪趋势已成为常态,纽约警察局部署了名为“Patternizr”的警情预测系统,但是在犯罪人员数据中,少数族裔和低收入群体的占比较多。那么,使用预测性警务算法来调控警察资源,将导致低收入社区和有色人种社区的警务比例过高,从而引发学者产生“真的是无偏见(bias-free)的警情预测系统”的质疑。福利分配亦是如此,分配医疗服务算法是根据平均医疗成本对患者进行风险评分,那么每个人获得医疗服务的机会应当是公平的。然而,在美国,算法通过种族分析形成了错误的集团性判断,导致黑人获得额外护理的比例仅为17.7%,如果系统不存在集团性的歧视,那么该比例将为46.5%。

第二,行政自主性的消逝。行政自主性是指政府以自我确定偏好并将其转化为权威活动(authoritativeactions)的能力,亦称之为行政裁量权。不难发现,行政裁量权赋予行政机关适用法律时消弭概念不确定性和提高规则弹性的能力,克服法律规则的内生缺陷,让行政机关能够审时度势地作出符合现实、合乎情理的决定。然而,行政裁量权自身也具有天然弊端,一旦裁量肆意,行政正义便荡然无存。对此,算法决策可以剔除行政裁量中的情感因素,通过统计分析形成一类案件普遍适用的决策逻辑。由此可知,在算法决策程序中,行政机关不再拘泥于个案的特殊性,而是以机器学习得出的普遍规则作为决策依据。在缺乏行政机关针对个案进行“人性化”裁量分析的情景下,个案的特殊情形被强制服从于统计规律的普遍情形,带来的后果是削弱了行政机关的共情对待,以致陷入裁量懈怠的违法境地。以“健康码”为例,在新冠疫情防控初期,健康码的不同颜色成为采取应急管理措施的绝对标准。对此,有学者指出,将颜色标识从裁量基准转化为绝对标准,是对法规范赋予行政机关自由裁量空间的全面压缩。

三、“技法互动”的价值维度:算法决策程序应接受正当程序的控制

在算法行政背景下,随着行政治理的复杂性不断加剧,通过算法自主决策以缓解治理负荷,日益被看作是一种可行思路。公共行政的可接受源自个人的知情和认可,知情和认可则需要通过一系列的行政程序才能实现。故此,算法的技术性程序不得游离出正当程序的法治框架,在“技法互动”的情形下,正当程序为算法决策程序提供了价值维度。

(一)“一切为了人类”的算法正义

算法的学习能力正导致人与机器的关系从主从关系转向主体间的关系,人的主体性地位因此降低。算法与行政的结合,因自主程度的不同而生成“权力的算法”或者“算法的权力”。正当程序是“人的正义”,算法亦是人类的技术,无论是“权力的算法”亦或“算法的权力”,均需要通过正当程序来坚守公共行政的“人本”理念,形成“一切为了人类”的算法正义。

其一,在弱人工智能运用的行政领域中,行政机关使用算法决策是受制于客观任务的需要,算法决策表现出技术工具的特质,是“权力的算法”。行政实践依旧是“人际关系”,正当程序也是以个人与行政机关作为程序的参与双方,算法决策只是作为催化酶而存在。因此,在以人类在场为核心的行政关系中,算法决策实际上是对简单的行政治理进行功能性演绎,而非具有自我意识和自我执行的主体性,是居于协助行政机关裁量判断和价值分析的辅助地位。例如,交警利用“电子眼”收集违法证据,基于此作出的行政处罚是行政主体的意思表达,并非机器的自主决策。即使弱智能型算法只是治理工具,也可能出现行政机关盲目信任而导致的“治理失灵”。此时,“一切为了人类”的算法正义要求划定算法应用的程序边界,设定算法决策的空间余地和条件限度,避免技术收集的事实材料越过人类而成为决策结果。

其二,在强人工智能运用的行政领域中,算法强大的分析能力促使行政机关频繁运用强智能型算法来进行治理,算法决策继而具有明显的行为控制力,对行政机关和社会公众的行为活动进行塑造、促进和限制,形成“算法的权力”。所以,算法决策不再是置于行政程序的闭环之外,而是与行政机关、行政相对人置于同一程序上,形成“人机关系”。目前的强智能型算法是以人工神经网络为基础,具有深度学习能力,能够建构出动态规则结构,在预测技术和通信技术的加持下,形成一种新形式的力量——“微观指导”(themicrodirective),不仅具有体系性,还具备一定的自主性,使其逐步具有“类人”的主体地位。“类人”的算法攫取公共行政中的权力要素,形成新型支配性权力,而这正侵蚀着公共行政的“人本”逻辑。例如,从“健康码”到“文明码”,个人受到算法的支配性控制,作为目的看待的个人也被算法权力予以数字异化,成为“码治理”的客体或者手段。可见,人类决策权让渡给算法系统,导致公共行政陷入“人在圈外”的决策程序。鉴于此,正当程序是关于人的智性、心性和灵性的制度安排,始终将“人”作为公共行政的起点和归宿。正当程序要求算法具有“人本”的伦理之善,“一切为了人类”的算法正义亦表明算法只能“以工具化的方式帮助法律更好地实现自己的任务”,个人在“人机关系”中不能被淹没压制,应当构建“人在圈内”的决策程序。

(二)“理性沟通和信任交谈”的算法信任

行政秩序是在公共利益得到维护的基础上建立起来的,行政的过程是对公平、公正、福祉、效率等公共利益的实现。那么,行政的过程需要正当程序提供行政主体与相对人沟通、交流和执行的商谈语境,是一种“人格化”的程序互动,也是信任生成的基础。然而,算法借助统计真实(statisticalreal)尝试降低权力的可能性(theprobable)及组织之间的模糊性(indistinctness),在重塑程序步骤的同时以科学外衣裹挟下的程序范式导致公共行政的“非人格化”实践。“非人格化”意味着公共行政中的“技术进场而人类离场”,缺乏政府与个人主体间的沟通交流导致信任滑坡。换言之,算法决策是一个封闭型的程序,个人难以参与,也无法表达意见,必将形成顾此失彼的信任裂缝。

进一步来说,算法决策提供了一种“完美执法”的可能性,并预设了两种模型,一是事前预测分析模型,二是事后决策分析模型。在事前预测分析模型中,算法通过将个人身份信息数据库和监控传感数据库予以联通,借助代码底层技术能够精准识别即将实施违法行为的个体或组织。技术性程序确实让处置时间大幅度缩减且抹除过多的人为干预,例如,长沙市公安部门通过“雪亮工程”实现了实时管控和提前预警,破案作用率高达90%。然而,事前分析模型造成了交互式微、信息不平等和技术不信任的局面,例如,在前述提及的上海“声呐”电子警察案中,当事人对声呐技术既不了解也不信任。那么,正当程序蕴含的“信息告知”功能就应当嵌入事前预测分析模型中,确保个人获得必要的信息资源,填补两者之间的信息沟壑。在事后决策分析模型中,算法能够串通多个并行数据系统,瞬间对行政事实进行分析得出可靠的决策结果,例如,贵州打通了扶贫、公安、教育等部门的数据,借助算法进行精准识别、准确画像,作出针对性的帮扶决策。算法有坚持自己偏见的倾向,可能错误地预设其决策的正确性,继而在运算程序中逐渐偏离公平性,例如,在“健康码”推广应用期间,多地曾出现赋码错误,导致个人遭受不利对待。基于此,正当程序的“信息质疑”功能可以缓解决策输出的不确定性和不公正性,通过信息共享和商谈确保个人在决策中的自主性地位得以维护。

无论是事前预测分析模型亦或事后决策分析模型,由技术性程序催生出的信任危机问题越发明显。一方面,个人的行动空间、控制能力、影响范围以及救济渠道处于不断消解的过程;另一方面,个人的知情权、参与权、异议权以及救济权也面临着失效境地。正当程序所彰显出的“信息发送”“信息沟通”以及“信息纠正”等功能为算法决策程序中的理性沟通和信任交谈提供价值指引,尤其是在事前预测分析模型和事后决策分析模型中建构起数据处理和算力分析的“信息沟通”中间过程,将“信息发送”和“信息纠正”进行连接,避免信任传递出现断层。可见,正当程序的三重功能联结能够消弭算法决策中程序缺省所带来的信任危机,从信息的分享、交流和纠错三方面确保相对人参与到算法决策的各个流程,打破“信息茧房”形成的回声室效应和同质化效应,实现公共行政的“人格化”回归,从而形成人机关系中“理性沟通和信任交谈”的算法信任。

(三)“代码公开、理解和追溯”的算法透明

算法决策的复杂性和可扩展性导致其本身运作的代码机制并非总是透明的。公开性是正当程序对公共行政所预设的正义要求,要求行政活动在阳光下开展,意味着算法决策的代码机制也应当是阳光透明的。那么,在算法行政背景下,正当程序要求算法决策具有公开性、理解性和追溯性,即算法透明。进而言之,在公共行政领域,算法透明要求行政机关应当公开算法黑匣子的代码和底层数据,并通过算法解释让大众获得一定的理解,实现对决策过程的可视化追溯。

其一,正当程序要求算法决策的代码机制具有公开性,这是算法透明实现的前提。对算法决策最显著的批评是其“黑匣子”底层机制,涉及数百万个数据信息和数千行代码。为化解新技术给公共行政提出的公开难题,算法决策的代码公开应当将法律意义上的数据开放与技术层面上的代码释放予以结合,在衡量不同的基础上实现有意义的算法公开。特别是在公共行政领域,算法的代码公开需要走出“技术中立”所形成的免于公开的避风港。“算法属于技术,但它并非系绝对‘中立的’”,所以,那些“对我们生活有重大影响的算法模型,应该向公众开放”“还必须提供透明度,披露正在使用的输入数据以及所标记的结果”。例如,法国制定的《数字共和国法案》,要求行政机关公开所使用算法的源代码、数据库以及与公共利益相关的其他数据。由此可见,正当程序为算法决策的代码公开提供了规范框架,公共领域内的算法决策系统都应当在一定程度上公开其源代码以供公众审查。

其二,正当程序要求算法决策的代码公开具有可理解性,这是算法透明实现的关键。代码公开并不等于算法透明的实现,相反需要对算法逻辑、算法数据等进行解释,提供可理解的说明。新西兰制定的政府《新西兰算法章程》,要求行政机关解释算法,确保算法可理解以提高算法的透明度。需要注意的是,算法决策的理解性实现应当关注到公众的“信息素养”。正当程序具有人性关怀的价值取向,要求在行政的各个程序环节给予相对人获得信息并开展学习的空间。那么,信息素养的培育则应当通过公共部门在使用算法决策时向个人提供相关的“有意义信息”,并运用解释算法的各种方式来阐明代码运作的逻辑。在这样的交互过程中,算法决策的代码公开才具有价值,当公众具备一定的理解能力,政府部门公开算法和解释算法的活动才能真正地促进算法透明的形成。

其三,正当程序要求算法决策的代码机制具有可追溯性,这是算法透明实现的目的。算法决策过程的透明程度对确保决策结果不偏不倚意义重大,公共行政部门因此需为算法决策建立可追溯系统,对算法的数据收集和处理方式进行流程化控制,确保“输入-输出”过程具有可视性。在可追溯系统中,行政机关需要记录算法的基础代码架构和基本数据库来源、执行任务时的分析程式,以及作出结论时对事实因素和法律规则的取舍判断等一系列痕迹,旨在让设计者、使用者和利益相关者能够对算法决策进行全过程观测。这符合正当程序的过程识别要求,确保算法决策活动中的不同程序可被相对人识别,让相对人有意识地与算法系统进行交互。

四、“技法融合”的治理回应:算法正当程序的建构

可以预见,“人们愈来愈形成技术治理与法律治理二元共治的话语共识”。正当程序是关于个人与国家之间关系的公平正义,即使在算法行政背景下,程序问题仍具有同一性,即“制定既公平又可行(fairandfeasible)的程序”。因此,一种算法正当程序被提出,在“专门的技术程序”的指引下汲取和融合正当程序的法治原理和算法决策程序的技术理性,以“技法融合”的理念来建构算法正当程序的中立性、公开性、论证性和公正性,促成行政治理、个人行为和智能决策的“三重交互”。

(一)以人的主体性和算法的有限理性构造算法正当程序的中立性

如前所述,算法决策成为主导后,政府常常处于缺位或者模糊状态,程序中立性便也成为“空中楼阁”。对此,算法正当程序不得偏离程序中立性的要求,需要坚持人在公共行政中的主体地位和明确算法的有限理性,以适宜构造算法正当程序的中立性表达。

⒈个人反自动化决策权的主体维护

在公共行政中,行政相对人可以基于判断而决定是否申请回避,以消除行政主体偏好和利益对行政正义的影响,例如《行政处罚法》第43条和《行政许可法》第48条的规定。“申请回避”是个人理性判断对其主体性的维护。而面对算法的“拟态人”决策活动,相对人的回避判断却显得滞后。因此,为维护个人在公共行政中的主体性地位,确保行政程序的中立性,算法正当程序需要拓展设计出个人对算法决策系统的申请回避,即个人反自动化决策权。例如,欧盟《通用数据保护条例》(GeneralDataProtectionRegulation,简称GDPR)第22条赋予个人反自动化决策的权利。类似于反自动化决策权,我国《网络信息内容生态治理规定》第12条规定,使用算法模型进行信息筛选、分析以及推送的,网络平台应当建立个人自主选择机制。《信息安全技术个人信息安全规范》也规定,个人可以基于自愿而作出选择“out-in”。在此基础上,我国《个人信息保护法》第24条进一步明确,个人有权拒绝仅通过自动化决策方式作出的决定。可见,在算法正当程序中,作为“数字化生存”的个人可以基于判断而决定算法决策的适用与否。

首先,对完全自动化决策的否定。算法行政的兴起应看作是治理方式的变革,目前多是发挥着辅助决策的作用,而不能替代机关作出决策。如果将拒绝算法决策置于完全自动化情形下,这无疑提高了“申请算法系统回避”的门槛,因而“有权拒绝自动化决策”应当是指向全自动化或半自动化且对个人有着实质影响的算法决策,决策最终仍需由明确的职能部门予以法律和道义上的背书。

其次,拒绝算法自动化决策的后果不一定是完全排斥算法系统的使用。当行政相对人提出拒绝算法自动化决策的申请之时,意味着行政机关应当采取适当的措施进行人工干预。在这层意义上,“反自动化决策”通常是指行政相对人请求人工介入并获得帮助的权利。

最后,考虑到“数字鸿沟”的客观存在,“申请算法自动化决策的回避”应当允许人工决策程序的重启。算法决策程序的展开,还需顾及行政相对人的信息素养,如果相对人对算法决策系统缺乏必要的知识储备,那么,其提出的回避申请应当看作是完全拒绝算法自动化决策的使用,人工决策成为唯一的选择。例如,在“健康码”推广使用的过程中,有相当一部分人群因无法使用智能系统而成为“扫码难民”,无锡、郑州、福州、杭州多地在公共服务场所开通无健康码通道,让这些“无码人士”可以通过人工决策而自由出行。同时,行政机关应当对使用智能技术困难的群体提供必要帮助,保障和改善服务体验,使其有能力参与到算法决策程序之中。例如,《浙江省数字经济促进条例》第46条规定,行政机关应当坚持优化传统服务与创新数字服务并行的原则,制定缩小“数字鸿沟”的保障措施。总而言之,在算法正当程序中,个人反自动化决策权贯彻“人本”逻辑:一方面,算法技术只是赋能者而非决策者,个人有权拒绝算法的自动化决策;另一方面,行政机关需要培育个人的信息素养,确保其能在算法决策程序中积极行使权利。

⒉算法决策的程序定位

程序中立性的实现还表现为行政机关职能的有序分离并相互衔接,一般是指调查职能、沟通职能和裁决职能分别交由行政机关内不同公务人员来行使。前述提及算法决策程序的瞬时性特征影响着行政程序的步骤要求,将职权行使的步骤和时限予以压缩,而这看似高效的行政过程其实也挤压了行政裁量权的行使空间,侵蚀着行政机关的自主性。明确算法决策在职能分离制度中的程序定位,是为了纠正适用的场域问题,让行政机关始终“在场”控制技术,避免技术无条件取代行政。由于沟通职能和裁决职能往往涉及行政主体的意思表示,存在着行政机关视个案情形作出个性化判断的裁量空间,因此算法决策一般不得介入这两个领域,避免出现自动化取代自主性的情形。然而,在调查职能范围内,算法具有人类无法比拟的信息收集和调查能力,对于个案信息的收集和调查也不涉及行政机关的裁量权,因此,允许算法系统介入行政调查阶段具有可行性。可见,为确保程序的中立性,算法适用的场域应当限制于事实调查阶段,据此作出决策也需要获得法律的允许,即不存在裁量余地。进而言之,德国《行政程序法》第35a条和韩国《行政基本法》第20条均规定,若属于羁束行政,行政机关可以交由算法决策作出处分。那么,在标准化、规模化的行政程序中,算法决策程序可以具有替代性地位,例如在投资备案、津贴申请、人才引进等行政领域,深圳市已实现“无人干预秒批”。但这并没有免除行政机关对算法技术的安保义务,根据《关键信息基础设施安全保护条例》第12条的规定,行政机关应当同步规划、同步建设和同步使用信息系统的安全保护措施。值得一说的是,“禁止自由裁量权”的适用限制只是武断地将算法决策和行政裁量权进行割裂,算法决策程序在裁量性行政领域应当处于辅助性地位。可以预见,在某些裁量领域,如果恰当使用,算法裁量决策能够帮助行政机关更好地履行职能,如南京、甘肃部署运用的“环保行政处罚自由裁量辅助决策系统”,通过算法的程序裁量和机关的人为裁量之间相互佐证,极大地提高办案效率和实现个案正义。所以,在职能分离的基础上进一步协调好算法决策和羁束行政、裁量行政之间的关系,才能有层次地明确算法决策的程序定位,彰显算法行政背景下程序中立性的新面向。

(二)以算法的可公开、可解释和可理解实现算法正当程序的公开性

为消除算法黑箱,应当通过规则形塑算法正当程序的公开性。需要认识到,“算法公开制度首先应当是有意义和有特定指向的决策体系的公开,而非一般性的算法架构或源代码的公开与解释”。从这个角度来看,算法正当程序的公开性是指有意义的算法公开和有特定指向的算法解释。因而,算法正当程序公开性的塑造尤其需要关注“可公开”和“可解释”之间的关系,而“可理解”是公开价值实现的最终归属。

⒈算法的可公开范围

算法公开是为了实现算法的透明度,以提升公众查阅行政机关的数据信息和审阅行政审议的能力。算法透明一直以来被视作是实现算法问责制的保障。通过公共数据平台开放各类数据资源已在实践中逐步推广,例如,在市场监管、交通出行、教育文化、社会保险等应用场景,浙江省公共数据开放平台现已开放19574个数据集(含10113个API接口),其中通过开放API的接口,使得个人可以访问智能算法的功能和资源。对于算法公开而言,应当以权利、责任和监管为主轴,划定算法的可公开范围来实现公开正义。

第一,算法是一项技术,对其代码及底层数据的公开需要平衡好知情权与商业秘密、国家秘密及个人隐私之间的关系。对于算法决策程序是否涉及商业秘密、国家秘密和个人隐私,行政机关负有审查和举证职责。同时,多地对于此类数据开放实行分级分类管理,例如,《上海市公共数据开放暂行办法》第11条规定,公共数据开放主体应当按照分级分类规则将数据划分为非开放类、无条件开放类和有条件开放类;而对于数据开放中的专业疑难问题,《浙江省公共数据开放与安全管理暂行办法》第13条规定“行政机关应当组织专家委员会进行论证”。

第二,在无条件开放的情形下,公共数据开放主体应当按照分级分类规则,对不同公共领域编制出算法数据的开放清单,并审核无条件开放的数据。例如,《上海市公共数据开放平台操作指南》指出,开放清单包括各类公共数据资源、数据接口、数据应用等。同时,还应当建立动态调整机制,及时更新和不断扩大开放清单,并确定开放类型、开放条件和监管措施等。如果涉及公众切身利益或者公众普遍关注问题的,《浙江省公共数据和电子政务管理办法》第26条要求公共数据开放主体应当采取听证会、座谈会和征求意见等方式听取公众的意见,以合理编制开放清单。

第三,在有条件开放的情形下,行政机关应当针对相对人的特殊请求进行法律上和技术上的判断,及时且准确地提供其所需了解的算法信息,并通过数据利用协议的形式要求相对人反馈利用情况、明确用途、接受安全监督等,例如《浙江省公共数据开放与安全管理暂行办法》第17条和《上海市公共数据开放暂行办法》第15条的规定。而就申请有条件开放的程序而言,公共数据开放主体需要对申请材料进行规范性审查、对需求进行审核和复核。

⒉算法的可解释程度

披露源代码、数据库和运算程式并不总是满足公众知情需求,要么是因为公众缺乏解析代码的技术能力,要么是因为掌握技术的机构利用算法知识编制透明谬误(transparencyfallacy)。算法的可解释性赋予了个人获得算法解释的权利,等同于传统正当程序中的“说明理由”,要求算法决策作出之后,行政机关应当对形成决策背后的系统逻辑进行有意义的描述。这一点在我国《个人信息保护法》第24条得以明确,即通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者作出说明。然而,智能算法存在着“解释困难”的特性,导致算法的解释路径区别于基于法律原因和事实原因的说明理由。对于如何解释算法决策系统运作的问题,英国信息专员办公室制定的《人工智能决策解释指南》提供了指引。基于对“解释”的不同理解,算法的解释方法包括基于程序的解释(process-basedexplanation)和基于结果的解释(outcome-basedexplanation),前者是指对部署应用的算法决策系统的设计、数据、逻辑等进行解释,是一种系统功能型的解释;后者则是对特定决策结果生成的算法逻辑进行解释,是一种具体决策型的解释。无论是何种类型的解释,行政机关需要对算法决策系统的原理、责任、数据、公平、安全、影响等进行易于理解的解释。与此同时,算法决策不得隐匿公共行政对公平的追求,意味着数据集公平、设计公平、实施公平、结果公平是进行有意义的算法解释的关键维度。然而,“公平性”难以在技术上予以量化。因此,算法的可解释性不应只停留在纯粹的技术规则解释,还需要通过“场景化”进行理解性解释。

⒊算法解释的可理解性

即使算法公开和算法解释同时具备,也不能完全构成算法决策的正当性基础。智能算法存在着“非人类思维”的特性,导致不同主体对于算法解释的理解程度是参差不齐的,因而应当针对不同接受者建立起“场景化”的解释路径,以最终达成算法“合格透明度”(qualifiedtransparency)。“场景化”解释避免了技术性解释带来无意义描述,是指可理解的算法解释需要根植于具体的行政环境,亦即个案导向的算法解释。换言之,基于行政环境并以人类思维去解释算法决策中的各种因素,将算法解释与个人权利、持续监督、司法救济等联系起来,以人类逻辑形成算法解释的可理解性。例如,GDPR第12条要求决策主体应当以可理解的方式进行信息交流,这意味着算法解释需要注意披露信息和说明理由的质量,以确保个人能够以获得的信息准确采取行动。在正当程序中,行政机关需要对行政决策作出解释,为公众营造出一种代理感,例如,《行政处罚法》第44条和《行政强制法》第18条都要求,行政机关应当就行政决定作出有意义的理由说明,《重大行政决策程序暂行条例》则是在公众参与环节建立了完善的解释说明制度。相较于行政机关的算法解释义务而言,算法解释的可理解性是一种“场景化”的权利目标,即在不同算法决策语境下,对起着决定性作用的因素(数据信息、演绎逻辑、决策应用等)进行有意义的解释。例如,在NJCMcs/DeStaatderNederlande案中,在未解释数据信息使用状况的前提下,政府采用福利算法进行福利欺诈监测,法院认为,政府缺乏对数据信息进行必要的解释而导致算法不透明且无法验证,同时也是对公民隐私权的侵犯。可见,在这个案例中,算法解释是否具有可理解性,在于是否对数据信息进行“权利本位”的解释。基于此,行政机关首先需要向相对人解释决策过程中所考虑到的因素、不同因素的各自权重,随后说明如何建立用于算法决策的配置文件和配置文件中的数据源,最后解释配置文件为何与决策过程相关以及如何用于决策。

(三)以技术赋权塑造算法正当程序的论证性

正当程序的论证标准不能消融在算法程序中,相反,“人机协作”是算法行政的基本关系,需要通过“技术赋权”的思路来实现“人机协作”关系中的理性交谈和沟通论证。那么,基于“审计追踪”的有效通知和基于“互动模型”的人机交流成为塑造算法正当程序论证性的两个关键要素。

⒈通过“审计追踪”确保个人及时获得有意义的通知

在算法决策程序中,通知问题一直存在,导致行政相对人在不知情的情况下遭受不利对待。产生通知问题的原因在于算法决策系统缺乏审计追踪的设计,不能对自动化决策作出的过程予以全程记录。而面对任何预测性裁决,个人都应当获得某种形式的通知,不仅披露所采用的预测类型,还包括数据来源和处理方式。算法决策系统的“可审计性”概念超越了算法的透明度,意指个人不仅能够介入系统,还能够对系统进行有意义的审查。“审计追踪”记录着算法决策系统的事实因素和支持决策作出的规则,同时也对事实和规范之间的推理演算进行跟踪,实现算法决策的可追溯性,确保行政机关作出有意义的通知。例如,英国政府制定的《公共部门使用人工智能的指南》指出,基于“过程的治理框架”建立审计追踪机制,为程序设计和实施生命周期中所涉及的所有角色构建一个连续的责任链,同时对决策全过程开展持续监督和检查。同时,《数据保护法》第50条规定,行政机关应当尽可能以书面形式通知行政相对人自动化决策的内容。反观我国,国务院办公厅印发的《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》指出,构建行政执法信息化体系需要落实过程痕迹化、责任明晰化、监督严密化、分析可量化。那么,需要对数据平台建立透明化、可审计、可追溯的全过程管理机制,落实对开放和利用行为的审计追踪,尤其是对受限开放类的数据进行全过程记录,一旦发现数据安全缺陷、漏洞等风险,才能及时通知个人。可见,算法正当程序中的“通知”是将审计追踪技术融入至通知程序中,个人能够基于审计通知主张权利,这一点在地方得以先行,《贵州省大数据安全保障条例》第24条和《浙江省公共数据开放与安全管理暂行办法》第34条均规定,审计追踪发现风险时,应当及时告知个人。在中央层面,《数据安全法》第29条对基于算法审计的风险通知予以明确。然而,行政机关可能会以审计追踪形成的数据线索涉及机密予以封存,继而架空对公众的“通知”。对此,将“通知”限制在具有公信力的中立专家(neutralexperts)可以成为折中方案,让其替代公众评估审计追踪中的推论和关联性。例如,浙江、深圳等省市开始建立首席数据官工作机制,首席数据官作为“专家型”监督者,可以对算法审计中发现的重大风险进行论证和监管。

⒉建立“互动模型”的人机交流

算法决策程序削弱了双方主体沟通交流的实践性。面对机器的决策程序,建立互动模型的人机交流可以缓解存在的沟通困难。通过将沟通价值进行技术设计,能够实现“反馈和控制”的交互式建模,使得个人更好地了解决策对其有何影响。互动模型的人机交流具有如下两种表现形式:

第一,纯粹的人机互动。在系统操作界面上,设置决策作出可能涉及的各种情形和因素,允许个人根据自我预设在系统端输入不同的情形和因素,进行初步的测试。根据初步测试的反馈结果,个人可以相应地调整自己的客观情形。若对反馈结果存有异议,个人可以选择咨询服务,通过询问机器获得必要的解释说明。在这样的“测试”和“咨询”情形下,个人不仅能够更好地了解算法决策作出时所考量的因素和所遵循的规则,与机器形成良好互动,而且还能够让机器自我学习,提高判断的精确度。例如,新加坡政府制定的《人工智能国家战略》提出通过人工智能建立无缝高效的公共服务,人工驱动的聊天机器(AI-poweredchatbot)可以让公众快捷高效地报告问题,并提供必要的案例信息来指引公众深入探讨问题的核心。

第二,“人工客服”型的人机互动。需要承认,即便算法作出了正确且合理的决策,但也可能因为交谈失败而引起相对人的不满,在这种情形下,“人工客服”就显得尤为重要。当然,算法行政背景下的“人工客服”实质上是服务行政发展的新趋势,要求在算法决策程序中设置人工服务选项。例如,根据GDPR第22条的规定,应当至少保障个人获得人工干预的权利,以及表达自己意见和质疑决策的权利,那么需要设计一种调解系统(mediationsystem),为双方冲突性利益提供商谈环境,而决策者需要通过系统聆听意见并作出说明。在实践中,《信息安全技术个人信息安全规范》指出,应当在程序中设计交互式功能界面,保障个人能充分表达意见。例如,北京市推出税务“在线咨询”服务,河南省依托“12345”等平台开通涉“健康码”问题专项受理热线,甘肃省部署应用“津科帮扶”在线咨询平台等。因此,人工客服的设置被视作算法正当程序沟通论证实现的制度措施,以确保个人陈述权、异议权、质辩权等程序性权利得以行使。

(四)以影响评估和质量保障形成算法正当程序的公正性

在公共行政中,正当程序承载着行政实践对某些“正义性”的实质追求。然而,算法决策中存在着算法歧视和自主削弱的问题,均有损于公共行政所欲达成的实质正义。对此,算法行政下的行政正义依归于正当程序公正性而得以彰显,需要通过建立算法影响评估程序和质量保障程序以形成算法正当程序的公正性。

⒈建立算法影响评估程序提高算法决策过程的安全性和公共性

算法决策形成的技术风险具有实时性、隐蔽性和不确定性,算法影响评估程序应当采用事前、事中和事后评估的程序模式,建立全流程的影响风险评估。美国纽约市颁布的《算法问责法案》规定,应用于公共行政的算法决策需要进行算法影响评估,确保系统的安全性。加拿大制定的《自动化决策指令》建立了政府部门算法影响评估程序的可量化指标体系,根据决策结果的影响程度,将算法决策系统的安全性划分为四级,并基于不同级别相应地规定保护义务和应急措施,这一点类似于我国《网络安全法》第21条规定的“网络安全等级保护制度”。

算法影响评估程序还需要关注公共性,即公众参与。优秀的算法影响评估程序能够为行政机关和公众之间提供一个共同的参照点(commonreferencepoint),为探索问题提供空间,不仅帮助公众了解机器学习系统中的政策要点,还使得公众和专家可以讨论技术与政策之间的边界(boundary)。例如,美国纽约市的算法影响评估制度呈现出政府、公民、专家和第三方机构共同参与的特征,即激励相容的参与型评估程序。我国《个人信息保护法》第11条和《数据安全法》第9条均规定,鼓励行业组织、科研机构、个人等参与个人信息保护和数据安全保护,这在某种程度上为建立参与型评估程序提供了规范来源。可见,算法影响评估程序,不仅搭建了行政机关和外部专家的沟通桥梁,弥合双方之间的知识鸿沟,而且促进问题专家和利益相关者积极参与评估,让他们获悉相关风险和存在的技术替代方案。扼要言之,算法影响评估程序的目标是:①向公众提供与其权益相关的算法行为准则;②让外部研究者能够有意义地访问系统并核查审计系统;③提高行政机关评估算法决策系统中的安全可靠、公平价值、程序正义以及差异影响的能力;④通过在评估前、评估期间和评估后的各个阶段为公众提供参与机会,保障其正当程序权利的实现。

⒉建立质量保障程序确保算法决策结果契合正义

质量保障程序是指行政机关对算法系统中存在可能影响公正决策的因素进行质量排查,以确保算法程式、算法代码、法律政策以及行政程序符合技术生命周期的既定要求。部分国家在数据保护法中已经明确规定质量保障程序,例如,根据德国《联邦数据保护法》第74条的规定,在传输或提供数据前,数据控制者应在合理的努力范围内对数据质量进行核查。在美国的税务系统领域,质量保障程序是对每个功能性程序进行缺陷或无效的识别,并验证其是否能够按照预期执行各种系统活动。反观国内,在高瑞丽与郑州市公安局交警十大队公安交通处罚一案中,“电子眼”未按照《计量法》的规定进行安装检定和强制性年度检验,从而引发执法合法性的争议。可见,质量保障程序意味着需要加强对算法决策的内部管理,明确不同阶段的质量标准和行政职责,定期审查和清理数据内容以及检查系统的安全性。进而言之,质量保障程序要求行政机关认识到自动化系统是可能出错的,并通过内部控制以对抗算法决策结果的不公正和歧视性,它包括下述三方面:第一,在行政机关中设置内部控制标准,为识别和解决算法决策系统中存在的问题提供总体框架。第二,对决策模型进行泛化误差降低,即在数据收集过程中确保数据的完整性、准确性、可靠性和及时性,让数据训练集尽可能地代表着大多数,避免无关特征的噪声数据的污染,之后让预测模型在训练集中进行训练,选择在测试集中显现出强泛化能力的决策机制。第三,行政机关采取各种有效措施,识别算法系统存在的违规设置,并对缺陷进行改进以增强算法决策的可靠性和合理性。

结语

随着公共行政与人工智能融合程度的日益加深,一种智能化和数字化的“算法行政”正在快速向我们走来,由此我们不仅要处理“人与人”之间的传统行政关系,而且还要解决“人与机器”之间的算法行政关系。诚如《新一代人工智能发展规划》所指出的,人工智能在为社会建设带来新机遇的同时,也带来了法律与社会伦理层面的不确定性挑战。尤其是算法行政的“无人化”趋势日趋凸显,算法决策程序威胁着“人本主义”的正当程序。算法决策程序的技术俘获、黑箱机制、嵌入模式和操纵力量冲击着正当程序的“中立、公开、论证、公正”。危机即转机,算法行政已是大势所趋,技术治理与法律治理应当从冲突走向互动,最终实现“技法融合”。一方面,在“技法互动”的情形下,正当程序是关于“人的正义”,它为算法决策程序塑造或预设算法正义、算法信任和算法透明的价值维度;另一方面,在“技法融合”的指引下,作为治理回应的“算法正当程序”在吸纳技术并坚守法治的基础上,对中立性、公开性、论证性及公正性进行重塑,为正当程序注入新鲜血液,也促使算法决策迈向可靠、负责、正义的程序体系。然而,目前的算法正当程序仍然只是一个理论雏形,怎么构建出算法行政背景下的多层次程序价值和精细化程序规则成为未来完善理论的核心。唯有如此,作为系统工程的算法正当程序才能够在综合技术与法治因子的基础上为算法行政提供指引和预期。