作者 | 赵精武,北京航空航天大学法学院副教授

工业和信息化法治战略与管理重点实验室研究员

北京科技创新中心基地研究员

北大法律信息网签约作者

来源 | 北大法宝法学期刊库

《北大法律评论》第22卷第2辑

内容摘要:算法透明义务落实作为规范算法的核心方案,通常被视为算法问责机制的前提性条件,但算法透明与民事责任承担之间存在“原因—结果”关系的解释鸿沟。重新审视其法律性质可以发现,算法透明义务的基础并非以约束算法权利为中心,而在于用户知情权的保障,其制度目标是保障用户在充分知情的基础上自主选择是否接受服务。

因此,算法透明义务与算法问责机制之间的逻辑关系并非表现为主流观点所认可的“未告知公示即存在过错,可以据此问责”,算法透明义务更关注的是算法透明所带来的过程控制效果。算法透明义务的履行应当以“告知形式”和“告知内容”为中心,在判断算法推荐服务提供者是否具有过错时应摒弃二元思维,转向对用户实质性权益造成影响的判断。

关键词:算法治理;算法透明义务;算法问责机制

目 次:

一、问题的提出

二、算法透明义务的理论基础与法律性质

三、算法透明义务与算法问责机制的关系矫正:过程控制与结果归责的区隔

四、基于过程控制的算法透明义务履行标准

五、结语

一、问题的提出

信息应用技术重塑了现代市场竞争的产业生态,从“人无我有”的产品资源竞争转变为“人有我优”的用户体验竞争。在平台经济模式下,个性化产品、定制化信息推送服务等类型的产品或服务早已唾手可得。然而,技术创新从来都不是无需支付任何代价的,这些产品或服务带来了个人数据过度收集、算法霸凌、信息茧房、大数据歧视等治理难题。原本处于客体地位的算法,因为其自身应用领域的广泛性和基础性而逐渐成为具有主体地位的“治理者”,用户权利的行使空间受到“不同意就拒绝服务”的现实挤压。

面对此种境况,立法者与监管机构尝试以传统侵权责任、违约责任的方式约束平台算法应用行为,但算法黑箱、商业秘密、技术中立等事由往往被平台运营者作为免责事由,拒绝公权力对属于“财产”范畴的底层算法进行审查。为了避免算法以客观技术躲避法律的调整,学者们先后提出过算法解释权、算法影响评估机制、算法问责机制等治理方案,我国立法机构也选择在《互联网信息服务算法推荐管理规定》中重新厘清算法推荐提供者与用户之间的权利义务关系。其中,第16条放弃了学界所主张的企业公开算法内容的激进方案,而是要求企业对算法应用的基本情况进行公示和告知,确保用户能够充分知晓平台算法应用的目的、方式和过程,故而也被称为“算法透明义务”。针对具有舆论属性和社会动员能力的算法推荐服务提供者,第24条专门规定了算法备案义务,这亦可视为“算法透明义务”的特殊内容。这种算法透明化的监管倾向同样存在于国外算法治理活动中,如美国《算法问责法案》第3(b)(2)条也规定了企业可以自行决定向社会公众披露算法影响用户权利的基本情况。

算法透明化之所以成为国内外算法治理体系的重要内容,除了客观上能够保障用户知情权之外,还表现为监管机构能够通过企业业已公开的算法应用信息在事后阶段确认企业是否对算法侵权行为承担侵权责任。简言之,算法透明义务通常被视为算法问责机制的前提条件,是算法推荐服务提供者是否具有主观过错的客观认定依据。这种归责逻辑确实能够避免平台以算法应用属于纯粹中立技术为由规避责任承担,但算法透明与否与民事责任承担之间仍然难以被解释为“原因—结果”的关系。在平台算法侵害用户个人信息权利或其他民事权益的情形下,由于算法应用多以信息化服务为外在特征,无法适用产品责任。此时,在一般侵权行为构成要件认定模式下,算法透明义务的履行与否、履行充分与否并不当然直接决定平台侵权责任的成立与否。因此,显然有必要对算法透明义务的法律性质重新审视,矫正算法透明义务是算法问责机制的前置性要求之误区,并在此基础上从客观行为和主观状态层面解释算法透明义务的履行标准问题。

二、算法透明义务的理论基础与法律性质

(一)算法透明义务的学说争议

在算法治理领域,学界普遍认为算法监管难题的根源在于算法内在的“黑箱”属性和外在的技术中立特征,有效规制算法应用方式的关键是增加平台与用户之间有关算法应用服务的信任与共识。现阶段,有关算法透明治理模式的理论主张主要包括赞成说、质疑说和改良说三类。

赞成说认为,既然在事后归责时难以继续适用传统侵权法上的主客观过错认定标准和相当因果关系说,倒不如直接在事前阶段提高算法的透明程度,有效降低算法应用的侵权风险。有效透明化的算法应用信息能够成为事后问责的客观化标准。赞成说所主张的算法透明化制度方案又可分为算法解释权和算法披露制度。主张构建算法解释权的学者认为,算法解释权应被视为个人数据“权利束”的一部分,该项权利的确立既是对自然人自治性的尊重,使其免受算法霸凌,也是增加算法信任和接受算法决策的必要手段。主张算法披露制度的学者则认为算法解释过于理想化,算法治理需要的是事前审查机制,而标准化的算法影响评估机制能够满足这一需求:一方面,事前预设安全等级,判断特定场景下算法应用的安全风险;另一方面,引入外部专业人员对算法应用进行专业化的算法审计。

质疑说认为,算法透明机制并不能实现预期设想的风险预防和行为约束效果,向用户以及社会公众充分展示算法应用基本情况并不现实,反而存在以公权力干预正常经营活动的嫌疑。具体而言,质疑说认为算法透明机制主要存在四类制度弊端:第一,算法无法通过透明实现用户理解。对于绝大多数用户而言,算法本身并不是一个容易理解的事项,用户无法通过透明化机制得到自身需要了解的信息。第二,外部监督效果难如预期。算法透明机制的一个目的是引入社会公众作为外部监督者,但企业级的算法应用模式显然不是个人所能够彻底理解的。第三,算法透明可能导致反向破解算法应用,损害平台商业利益。算法透明化既可能导致用户反向发现和利用算法应用漏洞,如利用信用算法应用漏洞“刷信誉”,也可能为竞争对手效仿业务模式提供便利。第四,动态优化的算法难以通过静态描述充分展示所有的运行原理等基本情况,算法透明不具有可操作性。

改良说认为,公开算法源代码或具体内容不具有可操作性,这种透明机制本质上属于侵害企业经营自主权和商业秘密的行为,立法层面所需要建构的算法透明机制应当是有限度的透明。学者们或是主张将算法解释权的解释范围限缩,作为一项程序性权利强化平台与用户之间的沟通信任;或是主张在权衡对用户权益影响程度和平台商业利益的基础上,按照初步透明、适度透明和充分透明的逻辑优化算法透明义务的结构内容;又或是借用国外学者Jong Cary所提出的“鱼缸型透明”和“合理型透明”理论,提出算法信息有限公开和算法原因完全公开的算法透明机制。

(二)算法透明义务对应的权利基础:算法服务自主权

从上述学界争论内容来看,算法透明义务多被视为填补企业与平台有关算法应用服务信息鸿沟的工具,该义务的理论基础主要包括两类:一是认为算法透明义务主要是为了解决“算法权力”扩张和“算法黑箱”不透明所引发的一系列社会问题,同时也可以视为事后确认算法推荐服务提供者是否存在主观过错的客观依据;二是认为算法透明义务是为了保障用户知情权,其目的在于保障决策能够为决策对象所理解,进而保障用户的权利,强调的是企业应当尽可能向用户说明算法决策的基本过程和决策结果的形成原因,以便用户自行选择是否接受算法应用服务。简言之,现阶段有关算法透明义务的争议焦点根源在于该义务究竟是以个人信息保护为功能起点,还是以算法问责可行性为制度目标。

虽然《互联网信息服务算法推荐管理规定》第16条的具体内容以算法推荐服务提供者义务履行为主,但该条被安置在第三章“用户权益保护”部分,从体系解释的角度来看,第16条所规定的算法透明义务以保障用户权益为优先。并且值得注意的是,算法透明义务的履行包括了“告知”和“公示”两项内容,“告知”的制度目的是保障用户知晓算法应用基本情况和正确选择接受算法推荐服务,“公示”的制度目的则是方便社会公众监督算法推荐服务的安全应用,故而公示的信息范围包含了基本原理、目的意图和主要运行机制等更为具体的内容。倘若将算法透明义务的理论基础解释为算法治理理论或算法问责理论,则会出现“为了监管问责而公开算法应用基本情况”的逻辑偏差。进一步而言,算法透明义务的实施效果应当是增加用户与平台企业之间有关算法应用安全的信任与共识,这也说明了算法透明与算法黑箱之间并没有必然联系,算法黑箱所遮掩的是技术层面的“输入—输出”过程,而用户真正关心的是“决策结果是否合理”“决策过程是否存在侵害权益可能性”等具体内容,因为技术使用方式本身是否侵权的不确定性将加剧安全风险。

由此可见,算法透明义务的理论基础是用户知情权的保障,但并非如部分学者所言,“算法告知义务属于个人信息保护领域的特别告知义务”。知情同意规则最早始于医疗领域,其目的是让患者能够充分了解潜在的危险与好处。时至今日,个人信息保护领域的知情同意规则是为了让自然人能够自行选择是否接受对个人信息的处理方式。算法透明义务中的知情同意与个人信息保护领域的知情同意的共同点在于义务主体与权利主体之间的关系表现为“一对一告知”,算法透明义务则是以“告知+公示”的方式实现“知情”的目的。并且,算法透明义务的适用并非以影响个人信息权益实现为前提,而是仅限于采用五类算法推荐技术的信息服务,算法权利应当与个人信息权利予以区分。算法推荐服务滥用可能导致的社会治理问题主要包括算法操纵、算法歧视、算法偏差和算法规避等。算法滥用的外观形态可能表现为利用算法非法收集个人信息,但这并不是算法治理议题中的核心问题。算法透明义务所保障的用户权益主要以用户的“算法权利”为核心,即用户有权自主决定是否接受采用算法推荐技术的信息服务,有权拒绝受到算法推荐技术的不当影响。

(三)算法服务自主权的正当性基础

算法服务自主权并非主观臆造,而是基于现有法律框架而延伸出来的新型法益。因为算法推荐服务的存在基础是“用户—服务提供者”之间的信息服务合同法律关系,故而算法服务自主权可追溯至合同法框架下的权利义务对等理论。社会公众所担忧的算法霸凌、算法操纵等问题,归根结底是因为服务提供者滥用技术优势地位造成合同当事人之间权利义务失衡。原本能够通过合同约定消除的现实不对等状态无法实现,在这种意思自治功能失效的情况下,则需要外部权力予以介入和干预,这也是立法者选择在行政立法中规定平台算法透明义务的原因之一。

算法服务自主权以信息服务合同下的用户权利为基础,而非以约束算法权力为目的而存在的算法权利。在合同法视野下,算法推荐服务的“算法权力”扩张不过是服务提供者滥用合同权利和不恰当履行合同义务的表象,倘若算法不具有事实层面的“支配力”,那么“算法权力”不过是群体影响力泛化的简称。在个体权益保护的视角下,这种群体影响力泛化则会转变为服务提供者与特定用户之间的权利义务关系显失公平。因此,算法服务自主权并不是一项内容具体明确的法定权利,它强调的是保持服务提供者与用户之间权利义务关系的动态平衡,具体表现为三个方面:第一,在算法推荐服务对用户权益有实质性影响时,用户有权知晓这种影响的程度和范围,以便自主决定是否接受服务。因此,知情权的“知情范围”是以算法推荐服务的可靠性为主要内容的,所以算法透明义务不仅是“告知其提供算法推荐服务的情况”,还要求服务提供者以“显著方式”告知。第二,对于部分用户而言,告知事项可能并不足以使其真正理解算法推荐服务的基本情况,服务提供者可能通过笼统表述使得告知机制流于形式,因此,算法服务自主权的实现还需要行政权力予以干预,服务提供者还需要公示基本原理、目的意图和主要运行机制等具体信息,在方便具有专业知识背景的用户了解算法推荐服务具体影响的同时,也使得行政监管机构和社会公众能够参与到算法应用的监督活动中。第三,算法服务自主权的正当性基础并不是纯粹的用户权益保护,而更多是权利义务的对等,故而算法透明义务仅要求以“适当方式”公示即可。这里的“适当”包括两层含义:一是公示内容的适当性,即服务提供者不必公示底层代码、算法推荐技术具体内容等可能涉及商业秘密的信息。二是公示详细程度、频率次数的适当性,即仅在具体服务模式发生实质性变化的前提下,服务提供者才需要更新“公示”内容。因为企业所采用的算法推荐技术通常会进行动态更新,频繁要求企业公示最新优化的算法模型显然存在加重义务之嫌。算法透明义务侧重的是“算法推荐服务”的透明性,而不是“算法”的透明性。

三、算法透明义务与算法问责机制的关系矫正:过程控制与结果归责的区隔

(一)算法透明义务与算法问责机制的逻辑关系

算法透明义务和算法备案义务通常被视为算法问责机制的基础,服务提供者违背这两类义务则可以成为算法问责机制的开端。结合上述算法透明义务理论基础来看,这种观点显然误解了算法透明义务与算法问责机制的逻辑关系。虽然两者在认定民事责任环节具有关联性,但在理论基础和功能定位层面存在显著差异。

算法问责机制通常被理解为有关算法应用的责任认定和分配机制,即算法服务提供者在算法应用造成损害结果时承担民事责任的认定依据。如在自动驾驶汽车造成交通事故时,通常是将算法应用服务纳入“自动驾驶汽车”这一客体范畴,适用产品责任予以解决。但是,常见的个性化推送等算法应用服务不属于“产品”概念范畴,因此需要按照一般侵权责任来解决侵权损害问题。而在这一过程中,算法透明义务作为算法问责机制的必要条件,能够提供主观过错的客观性认定标准,即“一旦算法推荐服务导致损害事实发生,那么可以根据透明化的算法来主张算法服务提供者的责任”。具体而言,算法透明与算法问责的逻辑关系主要表现为两个层面:一是算法透明义务针对的是算法推荐服务过程和权益影响的“透明化”,以便为用户提供判断算法推荐服务是否可靠、合理的客观依据,进而实现用户对算法推荐服务的“问责”。二是算法问责的难题在于算法黑箱阻断了主观过错的认定过程,即便是算法推荐服务提供者也无法充分解释迭代优化后算法决策的全部过程,为了避免算法问责陷入无谓的技术细节探讨之中,算法透明义务将透明范围限定在“权益影响”范畴,算法问责的逻辑得以从判断“算法是否存在漏洞、故障”转变为“算法服务是否与事前约定事项不相符合”。在这一层面,算法透明义务所强调的是保障用户知情之目标。

美国的算法问责机制大多与算法影响评估机制直接关联。加利福尼亚州2020年2月14通过的《自动化决策系统问责法案》第1798.401条直接将算法影响评估的目的解释为“评估自动化决策系统的准确性、公平性、偏见歧视、隐私和安全性层面的影响”,并由监管机构对自动化决策系统的使用进行审查和责任认定。此外,尽管美国联邦层面尚未颁布算法问责相关法律,但从《算法问责法案(2019)》到《算法问责法案(2022)》的内容变化来看,算法问责机制的内容除了包含算法影响评估之外,还包括了向联邦贸易委会报告算法应用预期目的、所述“关键决策类别”、影响评估结果、任何重大的负面影响等内容。从第9条“执行”条款内容来看,算法问责机制的“问责”含义主要包括“行政责任”和“民事责任”两类,且第4条第11项将“透明度、可解释性、可争议性和可救济性”同时作为算法影响评估内容。美国算法问责机制实际上更强调的是“算法应用的归责可能性”,算法透明不过是算法问责机制的组成部分,属于充分非必要条件。事实上,算法问责机制与其说是一项具体制度,倒不如说是算法治理的基本立场,即以事后追责的方式要求算法服务提供者在事前阶段尽可能采取降低风险的措施,以及在事后救济阶段提供责任认定的法定依据和具体标准。

(二)算法透明义务与民事责任认定的关系矫正

算法透明义务的履行足以成为认定算法推荐服务提供者是否存在主观过错的客观依据,但是,这种制度关系并不能等同于“未履行算法透明义务即可证明服务提供者存在主观过错”或“履行了算法透明义务可以免除侵权责任的承担”等类似结果。从制度目的来看,算法透明义务与算法问责机制的理论基础和意欲实现的权益保障目标并不完全相同。部分观点所主张的将算法透明义务作为算法问责的前置性条件,明显混同了算法透明义务和主观过错认定之间的逻辑关系。

第一,算法问责的基本前提是区分算法应用的基本类型,“产品”和“服务”两种算法应用方式决定了算法透明义务与民事责任的逻辑关系。诸如自动化驾驶汽车等算法应用方式是将“算法”内嵌至有体物内,相关侵权责任属于产品责任。在严格责任认定框架下,算法透明义务履行与民事责任之间并没有直接关系,算法透明仅能证明服务提供者在事前确实采用了合理的技术框架,以此证明没有过错或减轻责任。诸如个性化推送等算法应用方式则是以“算法”作为业务模式内核,在过错责任认定框架下,还需要根据其他侵权行为构成要件予以具体判断。如个性化推送侵害了作品网络传播权时,过错认定需要结合个性化推送是否涉及人工事前审查等内容,算法透明义务履行与否并不是过错认定的关键因素。所以,履行算法透明义务并不是民事责任认定的唯一标准。

第二,算法透明义务的理论基础是算法服务自主权,目的是平衡信息服务合同法律关系中服务提供者与用户之间的权利义务,降低算法操纵、算法霸凌等侵权风险,而不是公示算法内容为事后归责作基础。“算法透明强调的是过程控制,算法问责强调的则是结果主义。”归根结底,算法问责机制仍然需要遵循一般侵权行为构成要件的原理,从事后结果层面再现法律事实,在服务提供者与用户之间合理分配算法安全风险。进一步而言,算法问责机制的理论基础仍然是主体责任的认定与承担,而算法透明义务的内在逻辑反映的是一种算法应用过程的治理理念,在事前阶段增加算法应用的透明度,设置用户自主选择、社会公众监督和监管机构行政处罚三层预防机制降低算法侵权风险。

第三,在信息服务提供者主观过错层面,为了设置足够明确且可操作的认定标准,降低算法侵权的可预见性的不确定性,有必要引入算法透明、算法解释等事前行为模式作为信息服务内容合法性的判断依据。算法透明义务并不是认定算法服务提供者存在主观过错的唯一标准,同时,该义务履行也并不当然意味着算法服务提供者不存在主观过错。过错认定标准一直存有主客观标准之争,通说所认可的“主客观标准统一”即主观状态可以通过客观行为予以表现和识别。算法透明义务之所以被解释为算法问责的前提条件,是因为服务提供者的主观状态能够通过其告知行为予以表现,告知行为本身可以被视作服务提供者为了避免算法应用安全风险而主动采取的预防保障措施。但算法应用安全风险的预防方式并不仅限于告知行为,算法影响评估、算法解释、算法备案均可以作为风险预防措施,故而算法透明义务的履行与否、以何种方式履行仅能作为服务提供者过错认定的参考依据,而非“非此即彼”的认定标准。

(三)算法透明义务与行政责任认定的关系矫正

算法问责机制中的“责任”既指向民事责任,也包括行政处罚等行政责任。《互联网信息服务算法推荐管理规定》第16条中的“告知”与“公示”以及第24条的算法备案义务与第31条的行政处罚直接挂钩,算法透明义务的履行不再是判断算法服务提供者是否存在主观过错的依据,监管机构实施行政处罚时考虑的是算法服务提供者未能履行算法透明义务这一不作为是否具备主观过错。当然,在行政法视角下,这一结论存有争议。以往在行政处罚责任归责领域,“主观过错归责”“客观行为归责”和“主观归责为主,客观归责为例外”的学说争议早有定论,行政机关实施行政处罚“不问主观状态”已成通说。按照既有的行政责任认定方式,算法推荐服务提供者一旦违反算法透明义务、算法备案义务等相关规定,其行为当然地属于可以处以行政处罚的违法行为。不过,也有部分学者提出在实质法治框架下,行政处罚既需要明确的法律依据,也需要行政权力行使过程和结果的可接受性。算法透明义务的履行与否确实是行政机关实施行政处罚的事实依据,但在算法推荐服务提供者履行算法透明义务不充分时,行政处罚的实施则需要考察行政相对人的主观状态。《互联网信息服务算法推荐管理规定》第16条仅规定了服务提供者应当公示的信息类型,并没有详细列明“基本原理、目的意图和主要运行机制等”的具体内容,此时,算法问责的重心应当是判断算法推荐服务提供者的主观状态以及义务履行方式的恰当性。

算法推荐服务提供者的行政责任认定标准不是义务履行与否,而是义务履行方式是否具有合理性,并且,结合算法透明义务所保护的算法服务自主权,这种合理性的认定标准在于公示的方式是否能够达到向用户解释、说明算法推荐服务基本情况的目的。倘若公示内容与告知内容相同或者少于告知内容,服务提供者在主观状态上并不具备合理公示的意愿,行政机关将其行为认定为违反第16条当然具有可接受性。如果公示内容确实包含了基本原理、目的意图和主要运行机制,但详细程度不足,认定其行为违反第16条之规定则有待商榷,这不仅是因为该行政责任的认定缺乏可接受性,还因为公示内容的详细程度不足是否影响到算法的实质性透明这一问题还需要个案分析。

四、基于过程控制的算法透明义务履行标准

(一)算法透明义务的履行方式:客观行为的解释

在判断算法服务提供者是否应当承担侵权责任时,显然需要根据其算法透明义务的具体履行方式予以确定。《互联网信息服务算法推荐管理规定》第16条中“以显著方式告知用户其提供算法推荐服务的情况”之表述在实践中仍然存在可操作性较弱的现实问题:一是何为“显著方式”,二是何为“算法推荐服务的情况”。

在现行立法中,类似“显著方式告知”的表述较为常见,多被解释为“黑体字”“加粗”“自动弹窗提示”“需要明确阅读并同意”等具体行为方式,这在算法透明义务中同样适用。算法推荐服务提供者所采取的“显著方式”应当以用户能够第一时间关注到提示说明信息为具体标准,字体格式的特殊化、强制用户注意提示信息等均是“显著方式”的具体表现形式。值得注意的是,算法透明义务履行过程中的“显著方式”内涵并不仅限于信息陈述效果的显著性,还包括了因为算法迭代优化而产生的“比较式显著”。在算法透明机制的学理讨论中,部分学者对算法透明的可行性持有质疑态度,原因是技术层面的算法始终处于一个迭代更新的过程中,静态的算法透明机制所能实现的透明对象只是某一个特定时间点的算法。并且,即便要求实时更新算法的透明程度,也只会让算法推荐服务提供者疲于对外披露算法信息,与算法治理目标明显相悖。在算法服务自主权的理论框架下,此种质疑显然是对算法透明的目的和方式存有误解,算法透明从来都不意味着数据、代码、算法模型的强制披露,而是为了平衡企业与用户之间有关算法应用的信息不对称。在这种理念下,“显著方式”的内涵不仅仅是告知形式上具有显著性,还包括告知内容的显著性。一方面,服务提供者不能向用户倾泻有关算法的所有信息,冗杂的信息轰炸只会实质阻碍用户知情权的实现;另一方面,在发生能够实质性影响用户权益的算法更新时,“显著性”还表现为应当采用合理措施让用户能够直观地理解服务更新可能带来的变化和影响。

“算法推荐服务的情况”之表述客观上并未能提供可操作性的义务履行标准,尽管“基本原理、目的意图和主要运作方式”等公示内容确实能够为解释“何为平台算法推进服务”提供相应的解释依据,但是,“告知”和“公示”的理论基础和制度目的并不完全相同,两者所呈现的具体信息内容各有侧重。即便算法推荐服务提供者列明了“基本原理、主要运作方式”等内容,一般用户由于缺乏必要专业技术知识依然难以充分理解这些公示信息。向社会公众公示算法相关信息的目的是引入社会公众的监督,故而立法者分别对告知义务和公示义务的履行方式施加“显著方式”和“适当方式”的区分。结合算法服务自主权和“显著方式”的履行要求来看,“算法推荐服务的情况”包含了三种义务履行标准:第一,服务提供者告知的信息内容应当与用户权益密切相关,不包含其他纯粹技术原理的信息。用户自主选择是否接受算法推荐服务的前提是充分了解这些服务是否以及以何种方式影响到自身权益,诸如算法模型、代码内容等纯粹技术信息和其他非必要信息只会增加用户理解算法推荐服务的时间成本和难度。第二,这里的“情况”并不仅限于算法推荐服务接受之前的相关信息,还包括用户接受服务之后可能发生的更新情况、“进入—退出”机制情况等内容。因为算法服务自主权除了指向用户自主选择是否接受算法推荐服务之外,还包括用户自主选择是否关闭、暂停算法推荐服务。第三,这里的“情况”并没有统一性标准,针对不同类型的算法推荐服务,服务提供者所告知用户的“情况”范围也不尽相同。如个性化推送服务的“情况”包括推送信息内容的原理以及作出精准推送的数据来源等信息;检索过滤类服务的“情况”则包括信息过滤的具体标准、存在错误过滤的可能性等信息。

(二)算法透明义务履行不充分的判断标准:主观状态的认定

在算法推荐服务侵害用户权益时,算法透明义务履行的充分与否将会被视为服务提供者过错认定的标准之一。倘若义务主体未履行算法透明义务,并且损害结果与其未告知用户算法推荐服务的情况存在因果关系,则可以认定为具有主观过错。但是,商业实践的复杂性往往表现为算法推荐服务提供者未能充分履行或未能正确履行算法透明与算法解释义务,此时的过错认定则无法单单依据履行与未履行的二元划分予以判断。

在服务提供者未能充分告知用户算法推荐服务的情况时,义务主体的过错认定需要根据未能充分告知的内容予以判断。倘若义务主体未能充分告知的内容与用户权益并无直接联系,不符合侵权法意义上的“故意”或“重大过失”的情形。倘若义务主体未能充分告知的内容与用户权益相关,则需要考虑未能充分告知的行为是否属于“告知内容不足够详细”这一情形。倘若不够详细的信息并不妨碍一般用户正常理解,也不会造成一般用户误认为算法推荐服务不会影响自身权益,此时义务主体履行算法透明义务不充分的行为并不具有违法性。因为在算法服务自主权的理论框架下,算法透明义务强调的是用户意思表示的真实性和自主性,信息的详细程度与用户充分自主决定是否接受算法推荐服务之间并没有直接的因果关系。换言之,义务主体以结论性的信息内容告知用户有关算法推荐服务相关事项,即使这些告知的信息内容不够详细,只要这些信息足以让用户知晓算法推荐服务对自身具体权益影响以及可能导致的不利结果,就可以认定为义务主体已经充分履行告知义务。相反地,过于详细的信息陈述方式反而不利于用户在短时间内充分理解算法推荐服务的基本情况。在商业实践中,企业为了尽可能避免责任的承担,出于商业利益的考量,倾向于将不属于算法模型、代码等商业秘密的其他信息均列入告知事项之中,实际上增加了用户理解算法推荐服务的难度。

在服务提供者告知的算法推荐服务情况与实际情况部分不符时,则需要考虑这种告知信息不实对用户权益的实质性影响。第一,告知信息不实的部分与用户权益并无直接关联或关联性不大时,如果将其认定为义务主体故意或过失隐瞒有关算法推荐服务的重要信息,明显存在加重服务提供者义务之嫌。无论是算法推荐服务上线日期等有关服务的描述性信息,还是算法模型技术原理等技术性信息,与告知内容不符并不会真正影响到算法服务自主权的实现,用户真正关注的是服务提供者是否隐瞒了对自身权益影响重大的关键信息。第二,告知信息不实的部分虽然与用户权益存在关联,但造成不实的原因是算法迭代优化之后暂时无法解释说明相关信息。商业实践中的算法推荐服务会根据业已收集的用户行为数据进行自我迭代优化,以此提升个性化推送、检索过滤、内容生成等算法推荐服务的用户体验,而固有的算法黑箱问题客观上会阻碍义务主体履行算法透明义务。如果未能如实告知的信息内容属于技术更新,且义务主体能够证明这种技术更新超出了自身能够合理预见的范围,则不具备主观过错。当然,算法黑箱并不能直接成为义务主体不承担侵权责任的抗辩事由,倘若这种技术更新明显会对用户权益产生实质性影响,义务主体未能如实告知之行为能够作为认定主观过错的直接依据。

五、结语

面对算法滥用可能导致的算法操纵、算法歧视等侵权损害风险,首先需要确立和保障的是算法服务自主权。这是因为算法滥用行为实质上是算法推荐服务提供者利用信息优势和技术优势限制用户自主选择的能力和范围。算法提升用户体验的过程并不是不需要付出任何代价的,不合理的算法模型会使得用户实际获取的网络信息范围限于“猜你喜欢”或者网络平台希望用户能够阅览的广告信息或营销信息。但是,传统的侵权责任认定方式却会被服务提供者以技术黑箱、技术中立等事由所规避,解决算法滥用难题亟需一种更为客观化和标准化的机制保障用户合法权益。因此,以告知和公示为内容的算法透明义务正是立法者回应用户算法服务自主权的制度方案。自主权的保障并不完全是按照“弱者保护”的基本逻辑展开的,其核心仍是以权利义务的对等为基本目标。算法透明义务强调的是用户在充分知情的情况下自行决定和选择算法推荐服务的接受与否,而不是事后阶段的权益救济手段。在算法治理活动中需要注意的是,任何技术应用在不同阶段总会存在各种局限性,算法治理不应当以限制算法应用为目标,而是应当考量在算法应用过程中是否存在对既有权利的减损。算法透明义务提供的并不是算法问责机制的客观标准,其最初目的是控制算法应用过程中的利益平衡状态,避免出现算法与人的主客体身份错位。

责任编辑 | 郭晴晴

审核人员 | 张文硕

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。