摘要

自动化行政领域中,算法决策在极大地提高行政效率、降低政民互动成本的同时,也带来了行政正当程序方面的挑战,诸如正当程序的中立性遭破坏,行政相对人的陈述权、申辩权被压缩,行政主体说明理由较困难。算法决策挑战行政正当程序的原因主要在于算法技术的内在局限性、行政主体治理能力的相对滞后性以及制度规范的不完善性。应将行政正当程序的基本含义与判断标准相结合,从排除偏见、听取意见、说明理由以及权利救济四个方面来应对算法决策可能引起的行政正当程序失灵。

引言

我国《法治政府建设实施纲要(2021—2025年)》提出“着力实现政府治理信息化与法治化深度融合”的数字法治政府建设要求。对于依法行政而言,完善行政程序法治是其最重要、最基本的保障;对于法治政府建设而言,完善行政程序法治则是其必由之路。行政程序作为规范行政权力行使的外部规范机制,具有防止行政权滥用的消极控权功能和助推行政权积极行使的公共意志形成功能,现代行政法要求作为过程的行政程序必须“合法且正当”。诚如黄学贤教授所言:“法治从某种意义上来讲就是程序之治,而程序法治的实质则是正当程序之治。”因此,在完善行政程序法治、推进依法行政、建设法治政府的过程中离不开行政程序机制的完善,行政程序机制的完善又必须满足正当程序原则的要求。

正当程序作为行政法的一项基本原则,已得到我国理论界的普遍认同,其基本含义是当行政机关作出影响行政相对人权益的行政行为时必须遵循法律的正当程序,包括事先告知行政相对人,向行政相对人说明行为的根据、理由,听取行政相对人的陈述、申辩,事后为行政相对人提供救济路径等。正当程序是正确解释法定程序的最好向导,要求行政程序具有正当性,是因为这种正当性中蕴含了尊严、平等、秩序、公正、效率等法治国家的基本价值,满足不了这些价值观的要求,我们就不能信任算法决策作为公共行政的一部分。

一、算法决策对行政正当程序的挑战

算法是人工智能技术的核心,是一系列解决问题的清晰指令。算法决策就是算法程序运行后输出预测结果的过程,具有两方面的优势:第一,具有更准确、更强大的数据计算能力;第二,能够考虑到更多的因素,并发现这些因素之间的意外关联。基于公共利益和行政效率的双重价值追求,我国公共行政领域算法决策的应用源于多种现实的推动。首先是数据泛化的推动。数据泛化使行政程序存在的社会背景发生质的变化,我们生活的物理世界无时无刻不在生产数据,从企业ERP系统、银行交易系统、政府行政审批系统内的结构化数据,到办公文档、文本图片、音频视频等非结构化数据,大数据在社会结构的每一个层次中都有分布。如此泛化的数据倒逼相关行政主体对其作出反应,而算法决策使得行政主体在短时间内对海量数据进行统筹分析成为可能。其次是建设现代法治政府的推动。如前所述,提高现代法治政府的数据处理能力是行政主体使用算法决策的内在动力,与此同时,算法决策能够尽可能地免去行政相对人在行政程序中的繁杂义务,反过来助推现代法治政府建设。可以说,算法决策的应用与现代法治政府的建设是相互推动、相互促进的过程。

然而,我们必须要面对和警惕的事实是:算法决策正在改变传统行政决策过程中“人对人”的交互局面,其提供的技术支持越来越重要,甚至成为整个决策过程的核心。例如,在“秒办”“秒批”等行政确认或行政许可行为中,计算机已经可以广泛代替人类作出羁束性行政行为。在极大地提高行政效率的同时,算法决策也给行政程序的正当性带来严峻挑战。

第一,算法决策破坏正当程序的中立性。 首先,算法决策挤压行政主体的决策参与空间。行政程序的中立性是正当程序的应有之义,这种中立性的保持和监督有赖于行政主体主观能动性的发挥,而算法决策按照既定的技术规则对行政相对人进行行政行为评价的过程既在客观上阻碍了行政主体的决策参与,也在主观上诱发了行政主体“效率至上”的心理,引诱其主动将决策权交予算法程序。其次,在技术层面,算法固有的歧视性难以根除,而“中立”这一公共价值又难以代码化为明确的技术要求来约束算法歧视,那么算法决策结果自然难以保持预期的公正客观。

第二,算法决策压缩行政相对人的陈述申辩权。 一方面,算法决策钳制行政相对人的意见表达。法律通过妥善处理行政权力与公民权利之间的关系来确保行政主体与行政相对人之间权利义务的平衡。然而,算法决策以强势的技术逻辑取代现实中的行政规则,“模式化或标准化”的算法决策过程忽视个案的特殊性,迫使行政相对人服从算法决策的规律性,钳制其表达意见的权利。另一方面,算法决策具有瞬时性,瞬间输出的决策结果往往缺少履行告知义务、充分听取意见等程序性环节,变相剥夺了行政相对人的陈述申辩权。最典型的例子就是交通运输领域的“电子眼”“电子警察”等,算法决策系统对抓拍到的交通行为进行智能分析,按照确定的技术标准将识别出的违法行为交由管理部门进行人工审核并作出处罚决定。在这一非现场执法过程中,行政相对人几乎没有陈述申辩的机会,往往只能等到行政处罚结果送达后,再对有异议的行政决定进行事后救济。

第三,算法决策导致行政主体说明理由困难。 首先,算法决策也有出错风险。例如,儋州市一位八旬老人在通过高龄补贴审查认证后,系统误判导致老人因“被死亡”连续四个月未能领到相关补贴。在算法决策失误的情况下,行政主体如果不能对错误的推理过程作出解释,而是简单地将责任归于系统出错,显然是苍白无力的。其次,算法决策具有黑箱性,具有不被普通人解释、理解的复杂技术逻辑。由于算法决策对人工决策的替代,算法决策的黑箱性取代了人类价值判断的可解释性,这种黑箱性的存在会使行政主体陷入无从辩解的境地。

针对算法决策带来的挑战,现有行政法虽然在行政行为问责和个人权益保护方面提供了重要框架,但相关原则及规则主要还是以决策是由人而不是由计算机作出的为预设前提。在此背景下,探讨算法决策挑战行政正当程序的原因,进而提出应对挑战的路径选择具有重要的理论意义和实践意义。

二、算法决策挑战行政正当程序的原因分析

张凌寒从信息工具论的角度分析,认为算法自动化决策阻碍行政正当程序的信息发送功能,破坏行政程序的正当性。刘东亮从正当程序的基本要素出发,认为算法决策对诸如“听取意见”“说明理由”等权利保障措施构成威胁,从而导致行政正当程序失灵。郭春镇、勇琪从正当程序的价值要素出发,认为算法决策对程序正义的公开性、参与性、中立性、公正性等内在价值造成冲击,从而危及行政程序的正当性。通过分析以上积极的探索成果我们可以发现,大多数研究是从技术应用的角度阐释算法决策对正当程序的破坏,却忽视了技术之外其他因素的影响,例如,行政主体治理能力的滞后性、制度规范的现实不完善性等。本文认为,从行政主体利用算法决策所要达成的目标出发,算法决策挑战行政正当程序是多种因素耦合的结果:在技术层面,算法决策建立在算法技术之上,而作为技术工具的算法有其内在局限性;在主体层面,行政主体的综合治理能力存在一定的滞后性;在法律层面,引导并规制算法决策的相关法律法规面临窘境。这三个层面的要素相互交织极易导致行政正当程序的背离。

(一)技术层面:算法技术的内在局限性

算法技术的内在局限性是算法决策挑战行政正当程序的主要原因。首先是算法的歧视性。数据收集标准的设定、算法模型的建立为算法决策过程披上了科学、中立的外衣,但实际上,算法歧视无处不在,并且这种歧视具有自我肯定与自我强化的能力,致使行政相对人的权利持续受损。算法决策的歧视来源有二:一是算法决策使用的基础数据具有歧视性。算法的训练或运行以现实世界中的数据集为基础,现实中存在的男女歧视、地域歧视、种族歧视等人类心理学上的隐形偏见非常容易被算法捕捉并向其学习。在“偏见进,偏见出”的逻辑下,歧视性数据的输入将不可避免地导致歧视性结果的输出。二是算法决策过程中人类主观偏见的输入。在构成算法决策的基础环节,数据需要按照人类设定的标准进行收集、清洗和分类,初始算法需要人类进行编写,算法模型的生成和应用需要人类对其进行集成、部署和调试。毫不夸张地说,从数据收集到算法决策的每一个环节,无一不存在人类主观偏见输入的可能。其次是算法的瞬时性。一个能给出正确输出结果但耗时很长的算法几乎没什么价值,算法的价值全部体现在它的速度上。在以毫秒计的算法决策过程中,行政主体难以对决策过程进行人为的干预和矫治。最后是算法的黑箱性。我们往往难以洞察算法决策系统背后的逻辑,算法的不公开、不透明使得自动化行政出现漫无边际的“裸奔感”。在自动化行政过程中,算法黑箱的主要表现形式是,算法决策的结果通过计算机系统直接施加于完全被排除在系统之外的行政相对人,其形成原因主要有二:一是行政相对人获取算法决策相关信息的渠道有限。一方面,当算法决策结果不损害自身利益、不出现例外情况的时候,行政相对人根本无法分辨决策是由人类作出的还是由算法决策系统作出的;另一方面,不能排除行政主体为避免引起行政相对人的质疑而故意不公开算法的可能。二是算法决策的技术逻辑性较强,再加上普通民众的认知能力有限,即使行政主体借助第三方技术公司解释算法决策结果的生成过程,行政相对人恐怕也难以理解。总而言之,算法的歧视性破坏正当程序的中立要求,算法的瞬时性消解行政主体的自主性,算法的黑箱性导致算法决策结果不可理解,严重威胁以保障公民权利为核心的行政正当程序。

(二)主体层面:治理能力的相对滞后性

算法决策发展迅速且迭代更新较快,相比之下,行政主体的综合治理能力具有一定的滞后性,这主要表现在三个方面:其一,行政公职人员客观上的数字治理能力缺失。智能时代公务员的能力“恐慌”成为社会诟病的话题,尤其是数字素养的缺失将直接影响算法技术在政府治理中的作用,如何处理人机关系,如何在遵守正当程序的基础上运用算法决策输出结论,这些是公务人员亟待提升的能力。 其二 , 行政公职人员主观上的程序治理观念有待加强。正如刘东亮教授所言:“如果没有正确而牢固的程序观念的支撑,各种程序制度都不过是脆弱的芦苇,风行草偃,不堪摧折。”与传统的行政决策过程不同,在算法自动化决策的过程中,行政决策的每个环节都有数据化的可能,这将导致行政行为被物化为“数据分析行为”,进而忽视行政活动中人类的主观能动性,忽视行政正当程序所蕴含的尊严、平等、公正、秩序等基本价值,使得本就“脆弱”的程序制度如同虚设。其三,行政组织结构难以兼容。行政正当程序的实现依赖合理的行政组织结构。算法决策具有开放性、自主性等特征,其功能的发挥需要信息共享、数据协调等要素的保障,而传统的科层制是封闭式的组织结构,各部门、层级之间严重的信息壁垒可能导致算法决策结果出错或者偏向性更加严重。算法决策对传统的行政组织结构提出改变需求,但这种改变不是一朝一夕就能实现的。

(三)法律层面:制度规范的现实不完善性

在算法技术日新月异的背景下,法律保守、稳定的特质导致相关立法工作不可避免地落后于技术发展进程。为了避免算法技术的肆意使用增加社会的无序性,我国出台了相应的法律法规。2021年9月,我国国家互联网信息办公室等九部门联合发布《关于加强互联网信息服务算法综合治理的指导意见》,提出利用三年左右的时间,逐步建立算法安全综合治理格局。2021年11月,我国国家互联网信息办公室审议通过《互联网信息服务算法推荐管理规定》,明确相关主体应落实算法安全主体责任、定期审核算法等义务,还要求针对特定算法进行备案,严重违反者会面临关闭网站、吊销行政许可或营业执照等行政处罚。遗憾的是,这两份文件都只将私营部门的算法使用作为规制重心,并未考虑到公共行政领域同样会出现算法黑箱、算法歧视等问题。例如,在“郑州红码事件”中,行政相对人受制于差异化的算法决策结果,不仅缺乏明确的解释规则和救济办法,而且行动自由被限制。除此之外,我国并没有规范算法决策在公共行政中应用的专门性法律法规。值得一提的是,我国地方政府层面几乎都有出台智慧政务方面的政策文件,但在行政决策方面,均未对算法决策的应用场景作出详细规定。由此可见,我国与算法决策相关的法律法规还不完善。

反观国外法律实践,德国于2017年第五次修改联邦《行政程序法》以实现行政现代化;欧盟数据保护部门于2018年修订的《为实现监管目的的个人自动化决策指南》明确要求利用辅助系统的人必须有权力和能力质疑且经常表达对自动化决策的异议;加拿大于2019年制定《自动化决策指令》,要求政府使用自动化决策时应贯彻透明度、合法性、程序公正性等原则;新西兰于2020年制定《算法宪章》,要求政府在使用算法系统时要作出透明度、合作关系、以人为本、同行审查、保留人为干预等方面的承诺。

显然,适逢人工智能技术的广泛应用,为有效应对算法决策对行政正当程序的挑战,需要法律因时而动。但立法过快地回应又可能限制算法的发展机遇,所以最重要的是取得算法与立法之间的平衡。实际上,在弱人工智能时代,AI能发挥的作用有限,尚未对法律的基础理论和基本法学教义提出挑战,对法律体系的挑战也十分微弱,以人类为中心的现有法制系统仍具有顽强的适应力。因此,在现有法律框架下应对算法决策风险是可能的,其原因如下:第一,法律是规制算法决策的重要手段,但不是唯一手段。算法决策结果具有不确定性,这种不确定性表现在算法始终处于一个不断变化的中间状态,其单次运行所输出的结果并非确定的数值,而是一个新的决策方法或者过程。针对这种不确定性,为保障行政相对人的合法权益,建立和维护行政秩序,法律作为一种强有力的规制工具是必不可少的,但除法律之外,还需要技术、伦理等手段的协同。在各种规范调整手段中,法律有时并非成本最低的方法。第二,现有的算法决策风险有相当部分可以在现有的民事、刑事和行政法律框架内得以解决,有些暂时无法解决的问题也能够在现有法律框架内进行法律修订予以回应。与此同时,我们也应当意识到,法律作用的充分发挥需要一定的人力资源、精神条件和物质条件,例如专业的公职人员、法官和检察官、知法懂法守法的文化氛围、法庭和监狱等。身处算法支配的社会环境中,如果无法满足实施法律所具备的条件,即使有了相应的法律恐怕也难以发挥预期的作用。

总而言之,我国制度规范的不完善性是算法决策挑战行政正当程序的原因之一,但面对算法决策可能带来的挑战,轻谈法律重大变革既不成熟也不现实。建议尽可能地利用现有法律资源,援用已有法律原则和条文规定,运用既有治理框架和治理机构引导算法的规范化应用。同时,面对算法决策对行政正当程序的“同款”挑战,国外立法经验或许能够给予我们相应的启示。可以在借鉴国外立法经验的基础上,结合我国算法决策应用实践,积累法律实施所需的人力、精神和物质条件,逐步完善与算法决策相关的法律空白。

三、行政正当程序应对算法决策挑战的路径选择

人们对公正的理解和对法律权威的体验首先是从“能够看得见的”程序中开始的,只有满足程序要件这一前提,人们才会服从某一决定。显然,程序正义对于结果正义的实现,尤其是结果的可接受性发挥着重要保证作用。为实现算法决策参与下的程序正义,建议以上述原因分析为基础,以正当程序的基本含义为前提,以满足行政正当程序的具体要求为切入点,探索应对算法决策挑战的路径。虽然正当程序应具备哪些具体的要求至今还未取得一致性看法,但该领域深厚的学术积累仍能够给予我们众多启示。例如,康奈尔大学法学教授萨默斯提出只有体现过程性价值的法律程序才符合宪法“正当程序”的要求;耶鲁大学法学院马肖教授提出“尊严价值理论”,将人格尊严和道德主体地位受尊重的程度视为评价程序正当性的标准;佛罗里达州立大学哲学教授贝勒斯在波斯纳和德沃金等人的理论基础上,运用经济分析方法论证得出正当程序的“八项程序利益”;周佑勇教授提出行政正当原则应包括避免偏私、行政参与和行政公开三项基本内容;章剑生教授提出最低限度的程序公正应包括听取意见、防止偏见、及时告知、说明决定理由等因素;刘东亮教授根据哈贝马斯的“交往行为理论”,提出正当法律程序的三要素:(1)排除偏见;(2)听取意见;(3)说明理由。刘东亮教授提出的三要素不仅满足“最低限度的程序正义”,而且简明直观,在算法决策广泛应用于公共行政领域的今天具有重要指导意义。基于此,结合行政正当程序的基本内涵,建议在现有法律规则框架下,从排除算法偏见、强化听取意见、坚持说明理由以及提供救济路径四个方面应对算法决策给行政正当程序带来的挑战。

(一)排除偏见:算法权力的正当运行

简单来说,算法歧视指的是自动化决策系统对数据主体进行差别对待并造成歧视性后果。针对算法歧视问题,学者们提出了诸多解决方案,大致可以分为两种类型:一是技术路线型,即主张算法透明;二是权力路线型,即主张算法权力的正当运行。随着研究的深入,信息的秘密属性、算法技术的复杂性等难题使技术路线变得不合时宜,相比之下,权力路线更加接近算法歧视的本质。因此建议从以下几个方面入手破解算法偏见难题,保持正当程序的中立性。

首先在搭建算法决策系统之初注重算法设计的公正性。美国马里兰大学教授丹尼尔·西特伦指出,人们应该在规则设立之初就考虑自动化系统的公平性和准确性问题,并且这种公平性和准确性不可能仅仅依靠技术人员来达成。随着算法决策在公共行政领域中的应用日益广泛,单纯依靠程序员来编译算法具有一定的风险性,很难保证程序设计人员能够在利益竞争中保持价值中立。因此,建议公权力机关同样参与到算法决策系统的创造环节中,扮演算法监督者和价值引导者的角色以保证算法权力的正当运行。具体而言,可以从三个方面着手:一是监督数据的选取。数据是算法运行的“燃料”,算法正义的实现基础乃是数据正义,应当在保证数据真实可用的前提下,追求数据的多样性和代表性。二是监督算法决策系统设计的公平公正。通过人员培训和案例教学等方式提高行政公职人员识别基本偏见事实的能力,规范算法的初始程序设定。三是引导算法决策系统贯彻“以人为本”的价值观。“以人为本”不仅是行政主体作出重大决策时必须遵循的基本要求,也是国家行政机关利用算法进行决策的应有之义。这一价值观要求对包括行政相对人在内的社会公众予以全过程、全方位的赋能,确保“人”在自动化行政过程中充分享有正当程序保障。

其次,培养行政公务人员的数字素养,坚持公权力机关的主体地位 。在“效率至上”价值观的催促下,在算法强大决策能力的诱惑下,在人类不可避免的懒惰、卸责心理的影响下,行政公务人员对技术的依赖性日益加深,心甘情愿地将自己的权力让位于技术,并从心理上认为技术更加正确、更加客观、更加科学。但实际上,作为人类创造的高度自动化、智能化的工具,人工智能本身并没有自己的意志,只具有工具属性。同样地,算法作为人工智能技术的核心也仅仅具有工具属性,建立在算法之上的自动化决策本质上仍然是对人类处理案件的模仿,其功能主要是辅助行政主体作出相应决策,提高行政效率。建议培养行政公务人员的数字素养,是为了确保行政主体有能力评估算法决策结果的准确性和客观性,能够对算法决策结果进行批判性检查。坚持公权力机关的主体地位,即保持人类对行政活动的最终决定权,这不仅要求行政主体摒弃“效率至上”“算法至上”心理,降低对算法决策的技术依赖,而且强调“人民至上”“技术向善”理念的回归。无论是数字素养的培养,还是主体地位的坚守,其根本目的都是为了留存人类介入算法决策的能力和空间,最大限度地保障行政相对人的合法权益,防止缺乏共情的算法权力滥用。

最后,构建多方参与的联合监管体系。 在算法决策过程中,算法设计者、算法使用者以及算法决策结果的承担者之间往往缺乏有效的互动。为实现对算法权力的监管,就算法设计者而言,应严格审查其数据来源以保证数据采集的合理与合法。就算法使用者而言,应加强算法使用前的影响评估以及使用后的异议申诉和算法问责,确保算法应用的公平与正义。就算法决策结果的承担者而言,应意识到算法歧视问题的严重性,充分发挥自己的话语权,积极维护自身的合法权益。同时,在算法决策运行环节之外,媒体应当发挥一定的社会监督作用。一方面,媒体应发挥倡导作用,积极普及与算法决策相关的技术知识,缓解群众的技术焦虑,引领正确的价值导向;另一方面,媒体应发挥警示作用,及时曝光算法歧视与事后救济的典型案例,引导“技术向善”的价值取向。

(二)听取意见:算法决策生效的必经程序

听取意见是指专门机关听取当事人及诉讼参与人的意见,并在考量其意见的基础上作出相关决定。它能够增强行政主体与行政相对人之间的关联和交际,使行政主体在充分了解行政相对人实际状况的基础上,作出科学、民主且具有可接受性的行政决定。具有自主学习和自主决策能力的算法嵌入到公共行政活动中则容易压缩行政相对人的陈述申辩权,导致行政相对人无法与行政主体进行充分对话,进而沦为算法决策结果的被动承受者。为保障行政相对人的话语权,建议将听取行政相对人的意见作为算法决策结果生效的必经程序,对此我们应给予理论和实践两方面的重视。

在理论方面 ,克劳福德提出“程序性数据正当程序”理念,倡导通过对告知、听证、裁决和司法审查等要素进行变革来应对自动化行政提出的正当程序挑战。中国学者刘东亮、张凌寒等提出“专业人员辅助算法审查”的观点,即允许行政相对人对自动化决策结果提出质疑和挑战,听取当事人意见,并在专业审计人员的协助下审查算法的科学性并及时纠错。在数字时代,面对行政相对人陈述权、申辩权被算法决策压缩的事实,行政主体不仅要充分尊重并允许行政相对人质疑,让行政相对人充分发表意见,更要及时复核,将质疑和意见落到实处。在此情形下,“专业人员辅助算法审查”的观点在一定程度上具有借鉴意义,尤其是考虑到基层行政公务人员本身技术能力较弱,缺乏算法决策相关的知识储备,难以对算法的决策逻辑作出可被理解的阐释。因此,为兼顾行政效率与行政公平,也为了以更加规范化的方式听取行政相对人的意见,建议在“专业人员辅助算法审查”的基础上采取定期审查和不定期审查相结合的方式对算法决策系统进行检查。定期审查即行政主体定期邀请第三方专业审计机构对算法系统进行技术审查、出具意见,并存档具体审查细则和审查结果。不定期审查可分为两种情况:一种情况是行政主体依照行政相对人的申请邀请第三方专业审计人员对算法决策系统进行审查;另一种情况是行政主体依照自身的权责,认为有必要对算法决策系统进行审查时便邀请专业审计人员进行审查。需要注意的是,对于影响当事人重大合法权益的算法决策结果,行政相对人申请事后听证的,应当根据行政相对人的申请按时举行事后听证,由中立的裁决者充分听取行政相对人的陈述和申辩,并深入审查算法决策逻辑。

在实践方面 ,我国对保障和维护当事人陈述权、申辩权的重视是显而易见的。例如,我国《行政处罚法》第七条第一款规定:“公民、法人或者其他组织对行政机关所给予的行政处罚,享有陈述权、申辩权。”第四十四条规定:“行政机关在作出行政处罚决定之前,应当告知当事人拟作出的行政处罚内容及事实、理由、依据,并告知当事人依法享有的陈述、申辩、要求听证等权利。”第四十五条也明确规定当事人有进行陈述、申辩的权利,行政机关有听取、复核、采纳当事人意见的义务。第六十二条则规定了行政机关违反第四十四、四十五条规定的法律后果,即“不得作出行政处罚决定”。再如,国务院颁布的《全面推进依法行政实施纲要》第五条要求行政机关实行行政管理要“注意听取公民、法人和其他组织的意见”“依法保障行政管理相对人、利害关系人的知情权、参与权和救济权”,第二十条规定“行政机关作出对行政管理相对人、利害关系人不利的行政决定之前,应当告知行政管理相对人、利害关系人,并给予其陈述和申辩的机会”。在具体案例方面,如田永诉北京某大学案,案中因被告未履行决定书送达、允许当事人申辩等正当程序义务,法院最终判决北京某大学向田永颁发毕业证书。再如,某小区业委会诉罗定市人民政府行政复议纠纷案,法院二审时认为被告的处理结果与原告有利害关系,但被告未通知原告作为第三人参加行政复议并充分听取其意见,因而违反了程序正当原则的要求,属于程序违法。随着智能技术的发展,为保障行政相对人的话语权,防止其利益单纯地被机器权衡,行政主体应注重听取行政相对人意见制度在实践中的贯彻落实,并且将听取行政相对人意见作为算法决策结果生效的必经程序。同时,建议国家在推动依法行政、程序正当等法律原则落地的同时,做好司法案件规范化“上网”(例如中国裁判文书网)工作,使司法实践更加开放、动态、透明、便民。

(三)说明理由:算法决策结果的可接受性

说明理由指的是公权力机关在作出决定或裁决时,应向其他利害关系人说明法律依据和事实状态,以及通过相关法律和事实状态进行推理或裁量而作出结论的过程,从而表明理由与最终决定的内在联系。在应对算法决策带来的挑战时,说明理由制度至少能够发挥两个方面的作用:第一,说明理由要求行政主体作出决定的全过程必须有理有据,这能够敦促行政主体为其所作的决定负责;第二,说明理由使行政相对人能够更好地理解算法作出决策的依据,在此基础上,即便行政相对人无法知晓算法决策背后的逻辑,也能够按照说明理由提出自身的质疑。随着算法决策在公共行政中的应用,说明理由制度在有效法律依据、逻辑推理过程方面的侧重点正发生深刻变化。

首先 ,在有效法律依据方面,作为判断行政正当程序的标准之一,说明理由体现在我国多部法律规范当中。例如,我国《行政许可法》第三十八条规定“行政机关依法作出不予行政许可的书面决定的,应当说明理由”,若行政机关及其工作人员未依法说明不受理行政许可申请或者不予行政许可的理由,则应承担相应的法律责任。再如,我国《个人信息保护法》第二十四条规定,当通过自动化决策方式作出对个人权益有重大影响的决定时,个人有权要求信息处理者予以说明。也就是说,当算法决策系统以个人信息为依据作出对个人权益有重大影响的行政决策时,行政主体有义务根据行政相对人的请求对算法决策机制予以解释说明。需要注意的是,行政主体在说明理由时除了使用“符合公共利益”“遵守法定程序”等抽象性、概括性的语言总结外,还必须附以算法决策系统的专业技术鉴定报告、精确的事实认定依据、详细的法律解释等作为支持行政决定的理由。同时,说明理由应照顾老人、受教育程度较低等理解能力较弱的群体,尽量以简明的自然语言、图画图表等方式说明算法决策依据。

其次, 在逻辑推理过程方面,“算法黑箱”是行政主体履行说明理由义务需要克服的难题。如果行政决策过程缺乏“透明度”这一基本要素,那么不论该决策产生的结果如何,行政相对人主观上就可能认为它是不公正的,有暗箱操作嫌疑,程序的正当性也将因此受到质疑。事实上,“算法黑箱”是算法技术的固有属性,但凡涉及算法决策的场景都不同程度地存在算法黑箱问题。为应对算法黑箱带来的挑战,目前的主流观点认为,应通过可被理解的方式解释算法的运行逻辑,尽可能追求“有意义的算法透明”而非算法元数据的彻底公开。这种观点有利于建设透明数字政府,但算法的技术复杂性、披露对象的技术能力等因素会克减算法透明的效能,因此,建议行政权力主体除主动增强算法透明度外,还应当坚持说明理由制度,这不仅满足了行政正当程序的要求,还能够间接达成算法透明的目标,即增强算法决策结果的可接受性。

坚持说明理由制度主要体现在说明理由的内容和方式两个方面。在说明理由的内容方面,应围绕算法决策系统中输入数据和输出结果之间的相关关系展开,并使用简明的自然语言以普通人能够理解的方式告知哪些事实影响了算法决策的结果。在说明理由的方式方面,我们应当意识到说明理由与行政效率之间存在着张力。算法具有相当程度的复杂性,详细地说明算法决策的每一个细节,既没有必要,也背离了效率提升的初衷。因此,建议除以下四个方面外,说明理由可适当省略:一是不利决定。当利用算法进行决策所得出的结果对行政相对人产生不利影响时,行政主体需要对输出结果说明理由。与此同时,为保证行政效率,如果行政相对人对不利结果没有异议,行政主体可不予主动说明,但应当保有对相关问题进行解释的能力。二是对一般情形的例外处理。当算法决策结果与一般情形下的处理结果不相符,即超出合理预期时,行政主体应当予以解释说明。三是自由裁量权的行使。当算法决策结果受到行政主体自由裁量权的影响从而违反程序一致性时,行政主体需要对受影响的行政相对人说明理由。四是有利决定根据行政相对人的申请说明理由。当算法决策结果对行政相对人有利时,行政主体通常只需要保有说明理由的能力而不用实施说明理由的行为,但行政相对人申请说明理由的情况除外。

(四)权利救济:算法决策的应有之义

算法决策并非完美无缺,存在对行政相对人的合法权益造成侵犯的可能,提供相应的权利救济路径是正当程序的基本要求,也是应用算法决策的应有之义。从行政相对人申请救济的程序来看,这一过程共有三方参与主体,即行政相对人、行政主体以及行政救济主体。从参与主体的角度出发,明确算法决策背景下行政相对人的权利救济路径。

首先 ,保障行政相对人逃离算法决策的自由。行政相对人有权拒绝成为算法决策结果的单纯承受者。保障行政相对人离开自动化决策的自由已在我国多部法律制度的设计中初见端倪。例如,我国《个人信息保护法》第二十四条明确规定,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。通过保障行政相对人逃离算法决策的自由间接保障了行政主体进行人为裁量的空间,有利于行政相对人根据法律规则中的因果关系而非算法决策系统中的相关关系提出权利救济申请。 其次 ,确保行政主体应用算法决策时的操作留痕。虽然算法作为辅助决策工具已经拥有一定的自主决策权力,例如“电子抓拍”“智能审批”等,但无论其自动化程度如何,行政主体始终是行政法律关系的一方,始终是责任界定的基点。要求行政主体应用算法决策时进行操作留痕,一方面能够对行政权力行使过程进行有效监管,另一方面有利于减轻行政相对人申请权利救济时的举证责任。 最后 ,完善行政救济主体的专业化配置。基于算法决策的特征,我们应当对现有的行政救济主体进行有针对性的革新,例如,设立专业委员会来处理自动化行政的专业性问题,设立数据保护专员为数据控制者提供数据方面的建议等。

结语

大数据时代的到来意味着整个社会机制以及治理体系等发生了巨大变迁,身处这一时代,人工智能技术所引发的技术、法律和伦理方面的对话已经开始。正当程序作为人治和法治的分水岭和试金石,就中国法律发展和法治现代化而言,是中国法治走向现代化不可或缺的元素之一。以现代法治政府建设为目标,行政主体不仅面临着能力提升要求,更处于程序思维有待强化的现代化转型之中。我们必须正视算法决策对行政正当程序的挑战,规制算法权力以排除偏见,强化听取意见以保障权利,坚持说明理由以增强政府公信力。在此基础之上,抓住算法决策带来的机遇、预防算法决策带来的风险、利用算法决策带来的便捷,及时回应民众行政诉求,为实现“良法善治”奠定基础。