打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

已公开个人信息保护应从“严进宽出”模式转向“宽进严出”模式,在此基础上,已公开个人信息处理规则的解释应被更新。所谓“宽进严出”模式,是指在信息收集上放宽对目的限制的要求,但在信息处理上强化对处理结果的控制。我国《个人信息保护法》第24条已在自动化决策场景中初步确立“宽进严出”模式,该模式在价值判断、理论准备、规则设置上亦能得到支持。“宽进严出”模式下,认定已公开个人信息处理在“合理的范围”内应降低目的限制要求,以处理结果倒推处理方式的关联性与合理性。个人信息处理者无需履行告知义务,个人信息主体行使拒绝权的时间和方式应尊重所在场景的信息处理技术特性。“对个人权益有重大影响”的评估应被置于整体风险评估中,具体为对处理结果和系统风险的评估。从“合理的范围”和“对个人权益有重大影响”中亦可推出,已公开个人信息也应“严出”。

打开网易新闻 查看精彩图片

一、问题的提出

《个人信息保护法》出台后,我国学理上对个人信息保护形成了“严进宽出”模式。所谓“严进宽出”模式,是指处理个人信息需满足目的特定明确且处理方式与该目的相兼容的要求。该模式是对目的限制原则的一种解释方案。目的限制原则的功能,是对个人信息处理的目的和围绕该目的的后续处理方式进行控制。我国《个人信息保护法》第14条、第17条、第28条和第29条都是对“严进宽出”模式在具体规则上的呈现。但是,“严进宽出”模式难以与已公开个人信息处理规则衔接,也不利于已公开个人信息的大规模利用。特别是在生成式人工智能场景下,生成式人工智能收集语料以抓取网络中海量已公开数据为最主要的方式。比如,2022年发布的chatgpt-3的总语料数为0.499t,总规模为753gb。而英伟达于2025年1月推出的cosmos世纪基础模型平台的总语料数已达史无前例的9000t,总规模为200万gb。如此海量的语料主要依赖于网络中已公开数据,包含大量难以被分离和清洗的已公开个人信息,对其采用“严进宽出”模式进行控制,显然难以实现。

对此,学界当下的共识是应当对已公开个人信息处理规则作出宽松化解释,特别是放松其在生成式人工智能语料收集阶段的限制。但在如何作出宽松化解释的问题上,学者们并未达成一致。现有研究从不同角度提供了论证方案和制度设想,但总体存在以下两方面局限性:第一,对未公开个人信息与已公开个人信息不作区分,试图构建一体化保护方案。但就个人信息收集和利用规则而言,未公开个人信息与已公开个人信息分别基于择入同意(opt-in)和择出同意(opt-out),在此之上形成了不同规则,面临的规则困境亦各自不同,对此应分别考察和论证。比如,未公开个人信息采用择入同意,若要对其作出宽松化解释,需探讨择入同意中相对宽松的概括同意的适用范围。已公开个人信息采取择出同意,应重点讨论的是《个人信息保护法》第27条中“合理的范围”“个人明确拒绝”和“对个人权益有重大影响”等要素的解释方案。第二,已有研究探讨宽松化解释方案时,往往脱离我国《个人信息保护法》现有体系框架,如探讨生成式人工智能应当构建何种促进型数据制度,最终不免流向立法论,在当下难具可操作性。

因此,本文将在破除上述局限性基础上,以生成式人工智能技术的出现为背景,采取如下研究路径:首先,区分已公开个人信息与未公开个人信息处理规则,仅针对已公开个人信息处理规则展开研究。其次,运用体系化思维,立足于已公开个人信息处理规则与关联规则,探讨如何借鉴《个人信息保护法》体系内已有制度资源,为已公开个人信息构建合适的保护模式。本文的基本观点是,已公开个人信息保护应从“严进宽出”模式转向“宽进严出”模式。本文将具体探讨,已公开个人信息保护为何需要构建及如何构建“宽进严出”模式。在此基础上,本文将重新细化解释《个人信息保护法》第27条规定的“合理的范围”“对个人权益有重大影响”和“个人明确拒绝”等要件。

二、已公开个人信息保护“严进宽出”模式面临的困境

已公开个人信息保护采取“严进宽出”模式面临两方面困境:第一,已公开个人信息处理规则自身存在局限性,即属于不完整规则。第二,生成式人工智能技术对已公开个人信息处理规则带来直接冲击,迫使该规则在解释方案上需被整体更新。

(一)

“面目模糊”的已公开个人信息处理规则

《民法典》第1036条第2项、《个人信息保护法》第13条第6项与第27条均规定了已公开个人信息处理规则。现有规则表明,个人信息已公开与取得个人同意并列为个人信息处理的合法性事由,但对已公开个人信息进行处理还存在三个约束条件:在合理的范围内、个人未明确拒绝和不对个人权益产生重大影响。《个人信息保护法》未对其进一步解释,故相关理解需借助个人信息保护领域已有的法律体系和其他相关规则。

首先,本文对“合理的范围”“对个人权益有重大影响”和“个人明确拒绝”的观点分歧和规则的不完整展开简要分析。

学界对“合理的范围”的解释分歧最大。第一种观点认为,“合理的范围”是指目的限制原则。第二种观点认为,“合理的范围”指向最小必要原则。第三种观点认为,“合理的范围”是指“目的限制原则+最小必要原则”的结合。此外尚有观点认为,“合理的范围”除上述两原则外,还需符合个人信息处理的合法、正当、必要和诚信原则,以及比例原则与利益均衡原则等。上述观点实际上都以目的限制原则为核心,围绕这一核心向外拓展了半径不同的内容圈。本文认为,目的限制原则与其他原则之间关系如下:第一,目的限制原则和最小必要原则关系最为紧密。两者均被规定于我国《个人信息保护法》第6条。从该条内容看,目的限制原则是最小必要原则的衡量基础,最小必要原则确保个人信息后续处理符合目的限制原则。可以说,在我国法中,最小必要原则是目的限制原则实现的应然结果,其并无单独存在的显著意义。第二,除最小必要原则外,目的限制原则和合法、正当、必要和诚信原则等一般原则地位并列,分别被规定于《个人信息保护法》第6条和第5条,关系较为疏远,但内容上彼此交叉。第三,比例原则与利益均衡原则是《个人信息保护法》应遵守的上位原则,但并未被直接规定于该法中。而从文义解释看,“合理的范围”直接指向的是个人信息处理数量与规模,其与最小必要原则关联最为直接。但从最小必要原则与目的限制原则的关系看,发挥决定性作用的仍为目的限制原则。因此,“合理的范围”之内容指向目的限制原则。与其关系更为疏远的其他原则并无被纳入“合理的范围”内容之必要,因为其作为一般原则仍能对已公开个人信息处理发挥约束作用。

学界对“个人明确拒绝”的理解亦存在分歧。第一个分歧是个人拒绝权行使是否应以个人信息处理者的告知义务为前置条件。第二个分歧是个人拒绝权是否应当受限制以及如何被限制。在部分新技术场景下,未公开个人信息处理中设计的告知义务、事前同意和同意撤回制度,无法平移适用于已公开个人信息处理。比如,生成式人工智能场景下,已公开个人信息中即便存在某种“告知义务”,也更多体现为透明化要求,即面向多元主体的信息披露义务,其功能、目的和内容均不同于未公开个人信息处理中的告知义务。此外,不受任何限制的个人拒绝权仅是制度理想,在具体场景中难以实现。即使在未公开个人信息处理中,个人拒绝权也并非在任何阶段都可行使。已公开个人信息处理中,欠缺交互场景会导致个人拒绝权的行使客观受限。若通过法律规定改变这一客观限制,将对技术开发者课以过高成本和负担。“对个人权益有重大影响”这一要件因内容过宽和欠缺具体指导规则,实操性极差,本身属于不完整的否定性构成要件。“对个人权益有重大影响”的衡量通常发生于个人信息处理开始前,是对未来风险的评估。仅凭《个人信息保护法》第55条、第56条之规定,并依赖于个人信息处理者的内部合规活动,个人信息保护影响评估会因缺乏具体标准、评估程序和外部监管而流于形式,无法被真正落实。

其次,已公开个人信息处理规则的“面目模糊”只是表象。真正的困境在于已公开个人信息处理规则无法简单参照适用未公开个人信息处理规则的解释方案。但在如何构建自己独立的解释方案上,学理层面尚未给出清晰回答和整体框架。

上述问题的本质,是我国《个人信息保护法》对已公开个人信息处理规则的设计采取了不同于欧盟模式和美国模式的第三种模式,本文称为“混合模式”。这给解释论上的自洽和成熟带来一定困难。简言之,欧盟模式不区分未公开个人信息和已公开个人信息,将其统一在择入同意模式下提供保护,但在特殊场景下弱化对已公开个人信息的保护。美国模式则直接将已公开个人信息排除于隐私权和个人信息保护框架之外。我国则采取已公开个人信息和未公开个人信息分离保护的模式,对已公开个人信息单独适用择出同意。对此,解释论上未及时构建与择出同意适配的理论,反而仍在适用主要和未公开个人信息相匹配的“严进宽出”模式下的目的限制原则解释方案。由此导致的问题是,择出同意作为“事前推定同意+事后明确拒绝”的模式,本系对个人信息收集和二次利用的松绑,使得个人信息处理者在网络中收集已公开个人信息时,无需提前联系个人信息主体。但是,“严进宽出”模式下,依照未公开个人信息处理规则,处理者又需履行事前告知义务,并取得个人信息主体的事前同意,这与择出同意的预设完全相反。它既不符合已公开个人信息处理初期处理者与个人信息主体之间往往并无互动的实际情况,也使已公开个人信息处理者背负过高义务。因此,在不修改立法的前提下,破除上述矛盾的路径只有一条,即从解释论层面对已公开个人信息处理规则中适用的目的限制原则重新解释,使已公开个人信息处理规则脱离“严进宽出”模式。

综上可知,已公开个人信息处理规则自身系一种不完整规则,故而蕴含充分解释空间。但在解释路径上,该规则欠缺独立性,仍沿用未公开个人信息处理规则的既有解释方案,导致内部不自洽。因此,已公开个人信息处理规则应以目的限制原则为出发点,重构自身的解释方案。

(二)

生成式人工智能带来的新挑战

生成式人工智能作为一种新技术和新场景,对已公开个人信息处理规则带来如下新挑战。

第一,“合理的范围”原有理解路径被完全颠覆。生成式人工智能场景下,“严进宽出”模式仍然从数据收集阶段即要求处理目的特定、明确,但这和生成式人工智能技术特征相悖。生成式人工智能对数据的利用方式是在学习海量数据后在词汇空间中将每个单词向量化,揭示不同单词之间的统计学概率分布规律,再将其以参数形式保存于大模型中,最终基于用户指令输出内容。此种技术路线下,生成式人工智能技术服务提供者亦无法明确获知其中具体的概率分布规律和生成式人工智能如何利用这些参数生成何种内容。这从本质上颠覆了目的限制原则的出发点,即目的可控,导致目的限制原则已无法充分回应生成式人工智能技术。此外,若目的限制原则未能贯彻,最小必要原则显然也难以实现,因为最小必要原则是目的限制原则实现的应然结果。最小必要原则预设的场景,是前信息时代小规模、单环节且环节可控的个人数据收集场景,这从本质上与生成式人工智能追求海量语料及难以预先设定数据类型和范围的技术特征相悖。

第二,“个人明确拒绝”进一步受到限制。生成式人工智能场景下,个人拒绝权的行使客观上进一步受限。首先,生成式人工智能技术在未进入商业化应用之前,个人信息处理者因欠缺互动关系,难以向个人信息主体履行告知义务。进入商业化应用后,其也难以对处理目的、范围、内容等,进行全面、明确和持续性的告知。其次,生成式人工智能场景下,个人拒绝权的行使时间和方式受限,仅能在收集数据前及数据最终输出阶段行使。最后,个人信息处理者可能欠缺回应个人信息主体拒绝权的意愿,尤其当拒绝权行使的成本能为其所承受时。因为个人信息主体拒绝权与生成式人工智能技术发展对语料“扩源提质”的要求本质冲突。一旦个体群起效仿,在个人信息对价机制尚未成熟的情况下,个人信息主体更可能因风险规避而直接行使拒绝权。单一个体行使拒绝权影响不大,但如果相关主体达到一定数量,可能会对生成式人工智能研发带来重大阻碍。考虑到此种风险,不回应个人信息主体的拒绝权对个人信息处理者而言是更好的选择。

第三,“对个人权益有重大影响”面临更复杂的评估要求。生成式人工智能场景下,“对个人权益有重大影响”的评估需依托于生成式人工智能自身的风险评估,且更复杂。目前,相关规定如《信息安全技术个人信息安全影响评估指南》(以下简称《指南》)或《信息安全技术与个人信息的自动化决策安全要求》(征求意见稿)(以下简称《自动化决策意见稿》)针对的都是自动化决策场景中的个人权益影响评估,其难以被延伸适用到生成式人工智能等新技术和新场景中。

(三)

反思与总结

已公开个人信息处理规则的自身特性以及生成式人工智能对其带来的新挑战,二者共同表明,已公开个人信息保护无法继续适用“严进宽出”模式。本文提出的解决方案,是为已公开个人信息保护构建“宽进严出”模式。这一模式不仅能理顺已公开个人信息处理规则的自身解释路径,也能更好地匹配新技术场景。

从“严进宽出”模式向“宽进严出”模式转变的核心,是《个人信息保护法》第6条第1款规定的目的限制原则在已公开个人信息处理场景下的解释方案需得到更新。以此为出发点,已公开个人信息处理规则的解释路径亦需从整体上重构。简言之,《个人信息保护法》第6条第1款在目的限制原则的解释上,应构建未公开个人信息和已公开个人信息相区别的“双元路径”。

具言之,在未公开个人信息处理中,目的限制原则的解释仍遵循“严进宽出”模式,择入同意规则与处理者告知义务规则与其形成呼应。已公开个人信息处理规则中,目的限制原则的解释应采取“宽进严出”模式,《个人信息保护法》第27条应与第24条规定的自动化决策场景形成规则联动。因为《个人信息保护法》第24条已较早构建了已公开个人信息处理的“宽进严出”模式,可为第27条在解释路径上提供参考。

三、已公开个人信息保护应转向“宽进严出”模式

(一)

“宽进严出”模式的内涵

所谓“宽进严出”模式,是指在信息收集上放宽目的限制要求,但在信息处理上强化对处理结果的控制。结合《个人信息保护法》第24条规定的自动化决策场景,下文对“宽进严出”和“严进宽出”两种模式展开对比。

第一,“严进宽出”模式中的“严进”要求个人信息处理目的特定与明确,对此展开严格解释;“宽进严出”模式中的“宽进”允许个人信息处理目的不够特定和明确。“严进宽出”模式下,“特定”是指对目的的描述必须提供足够细节,使之具备辨识度,“改进用户体验”“营销目的”等不符合特定要求。“明确”是指目的特定化后能被明白无误展现,确保信息主体和其他相关方对该目的有一致理解。“宽进严出”模式下,“宽进”意味着特定场景中尊重技术特性,个人信息收集之际,如收集目的无法特定化和明确化,应适当降低要求,采用业内共识的较低标准。

第二,“严进宽出”模式中的“宽出”,是指个人信息处理方式与处理目的之间的关联性符合相兼容标准,允许后续处理方式一定程度上偏离初始目的,存在更为直接的其他目的。“宽进严出”模式中的“严出”,是指个人信息处理方式与处理目的之间的关联性符合相兼容标准,但在特定场景下,处理结果应依据相关规定而被严格控制。比如,在自动化决策场景下,处理结果应当公平、公正,不得差别对待。在生成式人工智能场景下,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第4条同样规定,处理结果(生成内容)必须准确、可靠。

第三,“严进宽出”模式与“宽进严出”模式对个人信息处理场景的预期不同。“严进宽出”模式诞生于前信息时代,面对的是小规模、单一环节的个人信息处理场景。该模式目的在于遏制信息处理者滥用“权力”,保护个人信息权益。由于后续处理环节的可预期性强,所以控制数据收集阶段是一种有效方式。“宽进严出”模式基于个人信息保护与利用的平衡,面对的是信息大规模收集、信息处理自动化与处理过程连续不可分割的场景。此种场景往往存在“算法黑箱”,用户只能被动接受其最终决策结果。无论是控制数据输入端,还是介入个人信息处理过程,均存在高成本、低效率和难以保证效果的问题。因此,控制输出端更能兼顾成本、技术和效果的平衡。

(二)

“宽进严出”模式的适用理由

支持个人信息合理利用和人工智能新技术发展的理由并不足以充分论证,已公开个人信息处理规则在解释论上应全面转向“宽进严出”模式。这里将展示更为有力和直接的理由,表明已公开个人信息处理中早已存在“宽进严出”模式,且该模式与已公开个人信息处理规则体系更为匹配。

第一,从价值判断上看,“宽进严出”模式能够获得支持。《个人信息保护法》第1条将“促进个人信息合理利用”纳入了立法目的。这一目的的存在表明:其一,个人信息权益虽为人格利益,但并非绝对权,对其保护具有相对性。其二,个人信息权益保护与个人信息合理利用之间应形成平衡关系。其三,平衡关系的判定仍以利益权衡为根本手段,相关规则可被视为利益权衡结果的定型化表达。“宽进严出”模式系在特定场景下利益权衡的结果。该场景下,相比于个人信息权益保护,个人信息合理利用更被优先考虑。对此,下一节还将具体展开说明。因此,“宽进严出”模式在价值判断上本就为《个人信息保护法》所预设和兼容。

第二,从理论准备上看,“宽进严出”模式指向的是目的限制原则中“目的限制”的宽松化,对此学理上已做好准备。目的限制原则在欧盟gdpr中有最为成熟的表达。但当下欧盟学者对其集中提出批判,指出在人工智能时代目的限制原则已过时。当下,人们已难以通过目的限制来控制个人信息处理,确保处理活动合理。我国学者表示认同,指出目的限制原则属于通过抽样或单项分析实现个人信息价值的前大数据时代。当下,目的限制原则与人工智能技术本质上相冲突,需要被松绑。美国未采用欧盟gdpr中的目的限制原则,而是代之以场景理论和风险理念,个人信息合法利用的认定基于处理行为的合法性与可预期性。美国2024年公布的《隐私权法案草案》规定了相对宽松的数据处理最小化原则。基于特定关系中具有合理预期的沟通目的或经允许的目的处理个人信息,也满足数据处理最小化要求。上述表明,在个人信息处理中松绑目的限制原则或放弃目的限制原则,已有理论准备乃至立法实践。

第三,从规则设置上看,《个人信息保护法》第6条第1款能容纳目的限制原则的“双元解释”路径。第6条第1款规定:“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。”从文义上看,其为“目的限制”和“使用限制”的解释预留了较大空间。“目的限制”中的“明确、合理”是指处理目的不得宽泛与模糊,且需符合社会一般人的事理认知,不得违反基本伦理道德与公序良俗。而“使用限制”中的“与处理目的直接相关”在实践中已被宽松化解释为“直接关联性”与“合理关联性”,与欧盟所采用的“相兼容”理论类似。这表明,《个人信息保护法》第6条第1款在“目的限制”层面门槛较低,而在“使用限制”层面也能满足“相兼容”标准。这和《个人信息保护法》出台前已有规定的做法保持了一致。《个人信息保护法》出台前,我国法律法规中未规定目的限制原则,对个人信息处理目的的限制主要是合法、正当、必要原则和明示处理目的规则。比如,2012年出台的《全国人民代表大会常务委员会关于加强网络信息保护的决定》第2条第1款规定了合法、正当、必要原则和明示处理目的规则,该条亦为《民法典》第1035条所继承。有学者指出,我国个人信息保护制度在设计上更倾向于要求信息处理者把目的及用途一次说清,而“直接相关”仅指目的与用途是否关联的检验。对个人信息处理目的的合法正当性要求及完整揭示要求并不表明,目的呈现的明确性、特定性要达到欧盟gdpr的标准。

第四,“宽进严出”模式实际上在我国《个人信息保护法》第24条中已初步确立。该条规定自动化决策场景下的个人信息处理,在信息收集阶段仅要求收集目的为利用个人信息进行自动化决策(第24条第1款),是对“目的明确”的宽松化解释。在信息输出端,该条则要求结果公平、公正,不得差别对待,是对个人信息处理结果的严格控制,本质是对目的限制原则中“使用限制”的特殊要求。第24条未区分已公开个人信息和未公开个人信息,但实践中大量自动化决策基于已公开个人信息展开。当下的生成式人工智能场景之所以可借鉴自动化决策场景的规则,在于两者属于人工智能技术发展的不同阶段,但在个人信息处理上具有高度相似性:(1)均包含个人信息收集阶段,仅在收集个人信息的目的、范围、数量上不同;(2)个人信息从收集到算法/大语言模型处理,再到输出前,形成“技术黑箱”,个人信息主体无法介入;(3)个人信息主体仅在信息输出端与个人信息处理者建立起互动关系;(4)均采用择出同意,个人拒绝权和“对个人权益有重大影响”均为约束要件。

(三)

“宽进严出”模式下的利益权衡与规则细化

1.利益权衡中个人信息合理利用处于优位

从《个人信息保护法》第24条的规定看,“宽进严出”模式与择出同意适配。在择出同意的适用场景内,个人信息处理者合法利益优于信息主体的个人信息权益。原因在于,择出同意本身系这种利益权衡结果的表达。相比于择入同意,择出同意在数据资源优化配置和节省交易成本上发挥了良好功能,能推动个人信息商业导向的利用。行为经济学中的助推理论表明,如果想要鼓励某项行为,就要找到人们不去做它的原因,然后消除阻碍因素。反之,如果想打消人们采取某种行动的念头,则可以设置障碍,让它变得更困难。择出同意下的拒绝权看似为权利,实质上是给个人信息主体施加了特定行为要求,而给个人信息处理者提供便利,因为后者无需事前采取任何行动。

个人信息处理者的合法利益并非单纯指向经济性利益,否则其无法优于人格利益。个人信息处理者的合法利益能处于优位,在于其系一种综合性利益。综合性利益中超越个体利益的信息自由和信息公共性等价值在利益权衡中得以优于个体的人格利益。对此,我国司法实践中也予以认可。与我国类似,欧盟gdpr第6.1f条的处理者合法利益条款中,个人信息处理者所追求的合法利益不仅包括经济性利益,还包括法律利益和非物质性利益,乃至更为广阔的公共利益。实践中,此种价值权衡方案被视为“最后的救济方案”,是个人信息处理者维护自身利益的兜底路径。当然,其还必须符合处理必要性及在利益权衡中处于优位的限制要件。

因此,具体个案中,处理者一方利益集合里公共利益和非物质性利益越突出,能在利益权衡中优于信息主体一方的个人信息权益,并且处理方式上符合比例原则,就越能彰显处理活动本身的合法性。

2.已公开个人信息规则的细化——以《个人信息保护法》第24条为例

以《个人信息保护法》第24条为例,这里进一步分析,“宽进严出”模式下已公开个人信息规则在解释论上如何进一步细化。相比于已有的个人信息处理规则而言,该条系特殊规则。在未公开个人信息处理规则强调知情同意和已公开个人信息处理规则仍有“合理的范围”之束缚时,该条在立法技术上早已放松了对个人信息收集环节的控制,而转向有效规制“算法黑箱”的功能性路径。

但对于《个人信息保护法》第24条的特殊性,许多学者并不认可。一种观点认为,自动化决策分为用户画像和进行决策两个阶段,在用户画像阶段,个人信息处理者仍应主动履行告知义务,使个人信息主体知情。还有研究者认为,《个人信息保护法》第24条并未规定个人信息收集阶段,故在该阶段,未公开个人信息和已公开个人信息收集活动应当分别遵循告知同意规则和《个人信息保护法》第27条“合理的范围”之规定,“合理的范围”的认定应为再处理目的与初始目的一致。由此,该研究者得出,已公开个人信息处理中,第27条系对第24条的细化。理由主要有两点:第一,《个人信息保护法》第24条涉及更多类型的个人信息,但第27条仅涉及已公开个人信息,显然更为特殊。第二,第24条未规定个人信息收集阶段,第27条则规定了个人信息应在“合理的范围”内被收集,显然系对第24条的细化。其背后所隐含的,是请求权规范竞合下,特殊规则优于一般规则的判定方法。

实际上,上述两个理由皆难以成立,《个人信息保护法》第24条既是未公开个人信息处理中的特殊条款,也是已公开个人信息处理中的特殊条款。

首先,《个人信息保护法》第24条系我国此前数年自动化决策领域司法实践和立法实践的结果。司法实践中,法院对自动化决策数据收集阶段放宽限制采取支持立场。2014年的“cookie隐私第一案”中,法官对网络平台利用cookie技术收集网络用户上网信息进行商业化营销的行为表达了支持意见。这一立场也在随后立法中得到延续。2018年出台的《电子商务法》第18条规定,电子商务经营者可以利用自动化决策向消费者提供商品或服务的搜索结果,这里未规定任何限制条件。2021年修订的《广告法》第44条规定网络定向广告应当显著标明关闭标志,确保一键关闭,但也未提及限制条件。《个人信息保护法》第24条同样如此。《个人信息保护法》出台后的两个典型案例,“法先生滥用麦某公开个人信息案”和“王某与北京某科技有限公司人格权纠纷案”中,法院亦不关注自动化决策信息收集阶段的情况,而是关注自动化决策结果是否公平公正与差别对待。上述态度立场与行业实践情况相符。在行业实践中,数据收集阶段通常被视为个性化决策的前置环节,但其本身欠缺独立性,不会被单独衡量。

其次,从场景特殊性看,自动化决策无论在未公开个人信息处理中,还是在已公开个人信息处理中,都属于特殊场景,是大数据技术成熟后的一种典型场景。这里的“场景”更应指向的是个人信息处理的具体场合全景,综合个人信息处理的目的、方式、内容和结果等,不应被片面理解为处理的个人信息类型。

最后,从已公开个人信息角度看,不能因为《个人信息保护法》第27条规定了“合理的范围”,而第24条未规定,就认为第27条相比于第24条而言系特殊规则。相反,《个人信息保护法》第27条系针对所有已公开个人信息处理的一般规则。其虽然规定了“合理的范围”等约束要件,但“合理的范围”本身文义比较抽象,指向的也是作为一般原则的目的限制原则。与之相对,《个人信息保护法》第24条却是对目的限制原则在目的限制层面的放松和在处理结果上的从严,相比于第27条而言,是更为特殊的规定。立法者已意识到,在自动化决策场景中,个人信息处理的核心痛点是算法歧视,利用算法处理个人信息指向的是目的限制原则中的处理方式限制。对此的主要验证方式,是考察决策输出结果。从决策结果可以推出算法模型的合理性和信息收集是否在“合理的范围”。

综上,《个人信息保护法》第24条对已公开个人信息处理规则解释方案的更新提供了如下借鉴。第一,在具体场景下,“合理的范围”这一约束要件可能过于单薄,不足以涵盖整个个人信息处理过程的合理要求。而对“合理的范围”之内容进行扩充,且对其严格解释,试图基于该要件构建起整个已公开个人信息合理处理规则,并不可取。更应采取的路径,是对“合理的范围”作出宽松的解释,并抓住具体场景的技术特征和侵害风险,采用更有效的方式对其进行验证。比如,通过对处理结果是否合法合理进行验证,从而倒推处理方式是否在“合理的范围”内。第二,将个人信息处理过程视为一个连续性的整体系统,在合适的阶段配置个人拒绝权的类型和方式。比如,《个人信息保护法》第24条就充分考虑了自动化决策的技术特征,将个人拒绝权细化为脱离算法自动化决策权、关闭算法的权利和人工干预(接管)权三类,并在内容输出阶段进行配置。此外还有一项辅助性权利,即要求说明权。第三,《个人信息保护法》第24条第3款的“对个人权益有重大影响”需要通过更为详细的规章或指南来落实具体评估过程。

四、已公开个人信息保护“宽进严出”模式的具体展开

(一)

已公开敏感个人信息不适用“宽进严出”模式

实践中存在敏感个人信息被公开的情况,被公开的敏感个人信息是否应被弱化保护,乃至直接适用已公开个人信息处理规则,有待进一步分析。我国主流观点认为,已公开敏感个人信息处理仍应适用敏感个人信息处理规则。《个人信息保护法》也未对已公开敏感个人信息设置单独规定。由此可知,在我国现行法框架下,敏感个人信息如在公开后并不丧失敏感性,则仍应被视为敏感个人信息,适用《个人信息保护法》第28条至第32条的敏感个人信息处理规则。反之,敏感个人信息如在公开后丧失敏感性,比如,因长期公开、信息陈旧化等原因,不再“容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害”,则转变为普通已公开个人信息,适用已公开个人信息处理规则。对此的验证应当放在具体场景中进行。

在个人信息收集阶段,敏感个人信息仍应采取“严进”模式,无论其是否被公开。只有具备特定目的和充分必要性,并采取严格保护措施,且履行“告知+个人单独同意”义务,个人信息处理者方可处理敏感个人信息。与此同时,敏感个人信息还应采取“严出”模式。比如,在自动化决策和生成式人工智能场景中,都可能发生碎片信息聚合生成新的敏感个人信息问题,此种输出结果应被严格控制。学理上指出,敏感个人信息可被划分为本质敏感型和工具敏感型两类。例如,欧盟法学者quinn和malgieri认为,欧盟法律保护敏感数据有时使用工具性理由,有时又将保护敏感数据视为目的本身。美国学者paul ohm根据处理方式将敏感个人信息区分为本质敏感信息、推断敏感信息和工具敏感信息。我国也有学者将敏感个人信息区分为对具体内容直接利用的敏感个人信息和用以进行算法决策的敏感个人信息。本质敏感型个人信息在内容层面直接体现敏感性,故在个人信息收集阶段能被识别、避免被抓取或在被抓取后被清洗、匿名化或假名化处理。但是,工具敏感型个人信息在内容层面不直接体现敏感性,而是在特定场景下因与其他信息聚合而展现出敏感性。比如,家庭住址、身份证号码、行踪信息等,它们通常需要与其他个人信息聚合后,才体现出较强的敏感性。此类个人信息难以在信息收集阶段被预先筛选、识别和过滤,需要在后续处理和结果输出阶段被严格控制。

(二)

“宽进严出”模式下已公开个人信息处理规则的具体解释

1.重构“合理的范围”解释路径

目前,对“合理的范围”进行宽松化解释的方案主要有两种:第一种是针对特定场景如生成式人工智能的数据训练阶段放宽限制或豁免限制,必要时可通过立法进行例外规定。第二种是引入科研和业务改进例外的数据合理使用制度,建立训练数据“安全港”制度。两种方案都更偏向于立法论,并且对所有类型数据采取一体化放宽视角。本文认为,可以从解释论和双元解释路径视角,对已公开个人信息处理规则中的“合理的范围”重新进行解释。

无论采取何种解释方案,“合理的范围”最终会被化为对处理目的和处理方式是否合理的考察。但是,该要件不应当承载过重的任务,即不应当容纳所有的已公开个人信息合理处理内容。否则该要件将更难以被把握,进而使整个条款的适用难度都加大,与条款推动已公开个人信息合理利用的初衷背道而驰。其应当发挥的功能,是支持目的限制原则在已公开个人信息处理中采用“宽进严出”模式解释方案,并继续作为基石条款,为其他一般原则在已公开个人信息处理中的适用提供解释论上的指引。因此,“合理的范围”应当具体包含如下内容:第一,确保个人信息收集目的合法正当,且相对明确(明确性程度应符合行业相关群体共识)。第二,处理方式与收集目的存在直接关联或合理关联。第三,通过处理结果验证,处理方式是否与收集目的相关,以及处理方式自身是否合理。如果处理结果具有侵害性,且处理者存在对应过错,则可以倒推已公开个人信息处理方式的不合理,进而得出个人信息处理不在合理的范围内。有学者认为,在对收集目的放宽后,没有必要再对处理方式与收集目的的关系解释为“相兼容”,而应严格按照文义表达的“直接相关”解释。对此,本文并不赞同。首先,该观点仅考虑到已公开个人信息处理,却没有考虑到并非所有情形下,收集目的都可以被放宽解释。在未公开个人信息处理中,收集目的仍应遵循《个人信息保护法》第17条规定,此时收集目的与处理方式之间的关系采取“相兼容”标准就有其必要性。其次,“相兼容”标准既然已经在其他规定和实践中被认可与使用,此时再对其否定而适用严格解释,显然不妥。在生成式人工智能场景下,上述规则亦能被适用,因为该场景中的处理结果主要为生成式人工智能输出结果。其输出结果的侵害性是指直接输出他人隐私和个人信息,或输出结果系与个人信息主体相关的虚假信息、错误信息等。对此,判定处理者是否存在过错,需在现有技术水平下。因此,“宽进严出”模式充分考虑了生成式人工智能这类新技术的特征,对处理目的明确性要求放宽,仅要求其符合生成式人工智能的技术特征,达到行业相关群体共识。简言之,其对已公开个人信息处理是否在“合理的范围”内,可以通过内容输出“存在侵害结果+处理者过错”方式进行倒推认定。

这种解释路径充分吸收了技术主义思路。已公开个人信息处理规则需要不断接受新技术和新场景的考验,故而在规则解释方案上应与技术主义解决方案彼此配合。技术主义在回应“总得有法律来防止此事”的要求时,不是起草新的法律规则,而是寻找技术上的解决方案。因此,现有规则对个人信息权益的保护应与技术上的解决方案配合,从对不法行为的纠正和惩罚转向预防和排除,从依赖规则和标准转向采用技术解释方案。实际上,技术主义思路不仅在《个人信息保护法》第24条的自动化决策场景中已经出现,同时在我国2023年出台的《暂行办法》中也有所体现。《暂行办法》第4条第5项规定:“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。”这里的“基于服务类型特点”和“采取有效措施”一定程度上体现了尊重技术特性和技术解释方案。

在采取上述方案的情况下,本文提出的对《个人信息保护法》第6条第1款“目的限制原则”构建解释论上的“双元路径”即已实现。在未公开个人信息处理活动中,目的限制原则仍应被解释为目的明确、特定、具体,从而和《个人信息保护法》第14条和第17条规定对应。在已公开个人信息处理活动中,目的限制原则可以被解释为目的相对明确,符合行业相关群体共识。在处理目的和处理方式的关系上,两者都采用“相兼容”标准。如此,已公开个人信息处理中,目的限制原则的控制功能被一定程度弱化,但通过加强控制处理结果的方式又得到补强。《个人信息保护法》第24条对自动化决策中个人信息处理的规定可以印证。

2.告知义务的豁免与个人拒绝权的合理配置

已公开个人信息处理中,告知义务并非信息处理者必须履行的义务,个人信息主体行使拒绝权也不以告知义务的履行为前提。原因在于,告知义务系择入同意的对称义务,被明确规定在未公开个人信息和敏感个人信息相关规定中。它不应也无必要被扩大适用到已公开个人信息处理中。虽然《个人信息保护法》第44条赋予了个人信息主体的一般知情权,但从中也不能直接推导出,处理者负担告知义务。比较法上,对欠缺互动关系的个人信息处理活动往往豁免告知义务。比如,美国《加州消费者隐私法案》(ccpa)专门强调豁免间接收集个人信息当事人的告知义务。而欧盟gdpr第14.5b条指出,如果告知义务的履行不可能或涉及不成比例的努力,特别是为了公众利益、科学或历史研究或统计目的而进行的处理,可以豁免告知义务。

从功能上看,告知义务可以部分被《个人信息保护法》第7条公开透明原则下的信息披露义务所替代,但两者的侧重点并不相同。告知义务的直接目的是确保个人信息主体在充分知情的前提下自愿、明确作出同意。信息披露义务则是为了解决信息不对称问题,它既不专门针对个人信息主体,在披露目的上也不直接指向个人信息主体的知情同意。学理上,有人对两者不免混淆,进而得出应强化告知义务的结论。但实际上两者在内容、形式、范围和方法上均有所不同。《个人信息保护法》第17条明确规定了告知义务的履行内容、形式、范围和方法。《个人信息保护法》第18条第1款和第35条对告知义务的豁免规定,针对的都是该条。但是,直接源自《个人信息保护法》第7条公开透明原则的信息披露义务却需要根据个人信息处理的具体场景而被具体规定。比如,《暂行办法》规定了生成式人工智能服务的透明度要求,训练数据的透明度理应成为其中的重要组成部分。学理上也探讨了生成式人工智能服务者对训练数据相关信息如何履行信息披露义务。如有学者提出,应当构建梯次披露配置,并对特定情形作出例外规定,形成多方参与的规范实施机制。考虑到不同技术和处理场景之间的差异性,信息披露义务的细化很难在《个人信息保护法》中完成,有赖于更为细化的专门规定。

个人拒绝权的行使方式、时间和效果会受到具体场景下信息处理技术特性的限制,对此应正视和接受。比如在生成式人工智能场景下,个人拒绝权的行使会“前移”和“后置”。所谓“前移”,是指面对大规模数据爬取技术,已公开个人信息主体只有在自行公开个人信息的同时表达拒绝个人信息被再处理,该拒绝权的行使才有意义。此时的拒绝权类似于自动化决策场景中的拒绝自动化决策本身之权利,可被命名为拒绝生成式人工智能处理权。同时,这种表达还需要得到发布个人信息平台在技术上的支持,比如平台需要提供可机读的标识服务,才有可能避免生成式人工智能对其进行抓取的可能。因为一旦个人信息被打上禁止被处理的标识,人工智能系统就不得使用该信息进行训练。可机读的标识模式是人工智能时代拒绝权的重要行使方式。一旦个人信息主体未在该阶段行使拒绝权,则通常只能在处理结果输出后行使拒绝权。此时即为个人拒绝权的“后置”。

以生成式人工智能为例,“后置”的个人拒绝权可以被细化为两类:内容生成拒绝权和内容直接输出拒绝权。根据《暂行规定》第14条规定,提供者发现违法内容后,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。这表明,拒绝内容生成和拒绝内容输出是不同的,拒绝内容生成涉及算法优化和调整,拒绝内容输出则涉及屏蔽、过滤措施等。有观点认为,拒绝权主要体现为拒绝内容直接输出。该观点显然未考虑到,并非所有内容的直接输出都能够通过屏蔽、过滤措施阻却,生成式人工智能服务提供者对此的履行程度以是否尽到注意义务为限。更为根本性的措施,是通过算法优化和调整来阻止相关内容的生成。总体而言,生成式人工智能服务提供者回应拒绝权也应有界限,即其在履行方式和程度上应以“现有技术水平”为限,具体措施应在技术和成本层面具有合理性。

3.在具体场景整体风险评估中展开“对个人权益有重大影响”的评估

离开具体场景的整体风险评估而单独谈“对个人权益有重大影响”的评估并无意义。相比于“合理的范围”这一要件,“对个人权益有重大影响”作为一种事前风险评估措施,实际上更宜容纳不同方面的要求。

从程序上看,已公开个人信息是否“对个人权益有重大影响”的评估应当被置于具体场景的整体风险评估中。对此可以借鉴个人信息安全影响评估的规范性文件《指南》。其评估过程分为两部分:对个人权益影响及程度,安全保护措施有效性。由此可以评估出安全事件发生的可能性,最终能够得出个人信息处理活动的安全风险等级。在具体评估方式上,《指南》首先对个人信息敏感程度进行分析,然后分析个人信息处理活动特点及其中存在的问题,最终综合得出对个人权益影响的程度。《指南》d.4还专门对上述四个维度造成的个人权益影响程度进行了“严重、高、中、低”四档列举。此外,2023年发布的《自动化决策意见稿》也在第11章专门规定了“对个人权益有重大影响的自动化决策典型场景特殊要求”。

打开网易新闻 查看精彩图片

图1 《信息安全技术个人信息安全影响评估指南》评估原理图

从内容上看,不同场景中“对个人权益有重大影响”的情形也不同,应通过专门的规章或指南规定具体内容。具体内容应包括两类:第一类是处理结果,第二类是处理系统本身的风险。比如,生成式人工智能“对个人权益有重大影响”的情形主要指向了输出内容对个人信息的泄露、错误关联和虚假内容,从而对个人权益带来重大影响。《暂行办法》第4条第4项规定,“不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益”。此系对“重大影响”的具体列举。此外,生成式人工智能大模型本身可能也会“对个人权益有重大影响”,对此可以借鉴《欧盟人工智能法案》对大型人工智能系统的评估方案,比如其明令禁止开发和使用四类人工智能,同时对人工智能系统风险进行分级分类管理。

4.应确保特定场景下已公开个人信息的“严出”

所谓“严出”,是指特定场景下,处理结果应依据相关规定而被严格控制。仅从《个人信息保护法》第27条规定看,其似乎对于已公开个人信息再利用的结果控制不足。如果将该条与《个人信息保护法》第24条关联起来,可知结果控制仍隐含在第27条的规定之中。无论是从“合理的范围”还是从“对个人权益有重大影响”的要件中,都可以推理出已公开个人信息处理结果应受到控制,应满足合法、合理、正当等要求,否则,已公开个人信息处理可能不在“合理的范围”内,或对个人权益产生重大影响。此外,在特定场景下,也有专门规定会对处理结果提出具体要求。

已公开个人信息在特定场景下应当“严出”的另一个理由,是为应对“算法黑箱”和碎片信息聚合问题。“算法黑箱”不仅在自动化决策中存在,在当下的生成式人工智能中同样存在。它使处理结果一定程度上呈现不可控性,即便信息收集阶段合法合规。碎片信息聚合则可能导致敏感个人信息、隐私信息被直接输出,同样也加大了处理结果的不确定性。在生成式人工智能场景下,输出结果产生如上问题,会给个人信息主体带来隐私泄露、安宁侵扰、名誉受损和个人信息权益侵害等问题。如果没有在处理结果上进行控制,这些问题将会直接给个体带来侵害结果,甚至被用来进行违法犯罪活动。

未来,已公开个人信息的处理结果应当进一步得到合理控制。因为它可能会直接影响物理世界,发生不可预知的侵害后果。在技术更为复杂的人工智能体(ai agent)场景中,人工智能体是能自主规划且执行行动的人工智能系统,甚至其中的具身智能将会对外部环境直接产生影响。比如,“强人工智能”甚至“超人工智能”技术的发展,可能使得人工智能可以部分替代人类参与司法裁判,拥有“准主体”地位。而在人类的生活和工作中,人工智能体的深度嵌入也会重塑人机关系,人机协同乃至人机共生将成为常态。此种情况下,人工智能体的信息处理结果不仅会直接作用于物理世界,也会对人类认知带来影响,甚至因此导致难以预料的极端情况。

结语

鉴于已公开个人信息处理规则本身的局限,以及当下新技术和新场景对其带来的重大挑战,已公开个人信息保护有必要从“严进宽出”模式转向“宽进严出”模式。在“宽进严出”模式下,以《个人信息保护法》第24条的自动化决策规则为借鉴,已公开个人信息处理规则应重塑“合理的范围”之解释路径,在《个人信息保护法》第6条第1款的范围内形成与未公开个人信息保护模式区分的“双元路径”。在“合理的范围”解释路径指引下,个人拒绝权与“对个人权益有重大影响”应被进一步细化解释。最终,已有规则的解释方案更为尊重特定场景的技术特征,并在个人信息保护中更多吸收技术主义理念,从而合理配置有效的规则体系。已公开个人信息保护从“严进宽出”模式转向“宽进严出”模式,是技术与法律互动的生动写照和典型范例。

打开网易新闻 查看精彩图片

熊波|数据财产的独立性构造与刑法保护

姚万勤|“知情同意”与侵犯公民个人信息罪的出罪机制

郭雨婷|构建风险分级导向的人工智能系统备案制度

魏庆坡|去中心化自治组织的法治化:从组织拟制到实质控制

毕文轩|元宇宙平台互操作实现的激励型治理

吴逸越|数实融合产品出卖人主给付义务的重构

上海市法学会官网

http://www.sls.org.cn

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

上观号作者:上海市法学会