摘要:生成式人工智能凭借强大的自主学习能力、关联分析能力、结果输出能力,在征信领域具有提高信息输入效率、提升信用评估准确性、生成与解读信用报告、预知风险的应用潜能,但也面临着多重挑战。
结合技术原理与征信领域的特性,可从输出结果的质量问题、数据泄露的安全问题、信息处理的合规问题三个方面剖析征信领域应用生成式人工智能的风险隐患。
为平衡创新发展与风险防范,应在规范体系层面倡导目标导向式的框架性立法、以人为本确立基本原则,在治理主体层面倡导协同共治、多元参与,在监督管理层面倡导包容审慎的监管立场与分类分级的监管方式并行。
传统专家系统式的人工智能技术,由于一切决策都基于给定的规则设计,因而不具备理解复杂指令、事物背景的能力,仅能胜任对简单任务的执行。生成式人工智能技术则能够根据给定的提示,凭借在训练数据中学习的模式和规律,自主生成新的、原创性的内容,因而具有开放性和拓展性,可以被应用于更广泛的场景之中执行不特定任务,更好地处理生产生活中的复杂问题,这为各行业实现业务创新与流程革新提供了更加先进的工具和手段。
以美国 Open AI 公司于 2022 年 11 月推出的自然语言处理模型ChatGPT为标志,人工智能发展实现了从“规则式”到“生成式”的技术模式转变,有关研究与应用均被推向一个新的高度,迅速成为数字经济发展的最新趋势。
在此背景下,“人工智能+”于2024年被首次写入我国《政府工作报告》之中,这不仅是对发展人工智能技术重要性的强调,更是全面推进科技与经济深度融合的行动计划,旨在通过人工智能于各个领域的高效应用,在资源配置、知识扩散、业态创新等方面产生显著影响,进一步赋能创新升级与服务效率提升。
同年4月,中国人民银行征信管理局提出支持征信机构运用大数据、人工智能等新技术进行产品创新,为普惠金融发展提供多元化、差异化的信用信息服务。作为应用较早且成效显著的一个领域,从智能客服到信用数据的处理,人工智能技术早已在征信业中发挥了重要作用。不过,如同其他行业一样,此前征信领域应用的人工智能技术多以规则式的专家系统为主,在范围上相对有限。生成式人工智能技术的出现带来了新的可能,但也伴随着新的风险与挑战。
本文旨在探索生成式人工智能在征信领域的应用前景,并在系统梳理可能面临的风险隐患基础之上,试从治理对策的角度,就如何平衡创新发展与风险防范的关系展开论述。
一、征信领域应用生成式人工智能的前景展望
生成式人工智能的底层架构由多层人工神经元组成,灵感来自于人脑的结构和功能。依托这种架构,生成式人工智能相比以往的人工智能技术在解决问题的方式上会更像人类,在自主学习能力、关联分析能力与结果输出能力方面有着质的突破,这为其在征信领域的应用奠定了技术基础。
(一)生成式人工智能的技术突破
1. 持续性的自主学习能力
专家系统式的人工智能在架构上包括两个部分:一是拥有特定知识和经验的知识库;二是负责解释和调度工作的推理机。在技术原理上,由推理机将用户输入的信息与知识库中各个规则的条件进行匹配,并将被匹配规则的结论呈现给用户。以智能客服为例,通过将用户遇到的常见问题与对应的解决举措预设在知识库,人工智能就能够对用户的反馈作出及时回应,从而有效降低用人成本。
然而,由于程序执行的结果完全基于知识库中预设的规则,其在投入使用前需要通过人工的方式逐一设计,且一旦用户输入的信息超出预设的范围,将会无法输出有效的结果,因此存在制作成本高、可移植性与通用性差的弊病。
生成式人工智能则以机器学习为技术原理,这也是其强大理解能力和内容生成能力的基础。在其架构中,开发者并不给定预先设置的规则,而是由机器通过大规模的训练数据自主学习,从中捕捉输入信息与输出结果之间在统计学意义上的关联,利用机器自身学习所得的“经验”输出内容,包括提供信息、回答问题、图形绘画、解释概念、提供建议和自动编程等。
可以说,这种架构赋予了人工智能持续性、实时性的自主学习能力,只需要将现有的相关数据集“投喂”给人工智能进行自训练、自学习,其就能够不断适应新环境、新场景和新任务,以实现对不同领域、多种任务的处理,而无需人为介入再去设计细致、全面的规则。
因此,尽管在早期阶段可能会有较高的训练成本,但这种持续性的自主学习能力意味着生成式人工智能具有技术原理上的可移植性与通用性,能够经过“微调”被推广到不同的应用场景,并在规模效应的作用下大幅降低每个具体场景的开发成本。
2. 自适应的关联分析能力
基于机器学习的技术原理,还给生成式人工智能带来了自适应的关联分析能力。相比自主学习能力对可移植性与通用性的侧重,关联分析能力使得人工智能无需人为进行显著的干预,就能够经过不断迭代和自我完善,持续提升分析和挖掘事物之间多维度关联性的能力,提高输出结果的精确性。
专家系统式的人工智能被设计出来的前提,在于某一领域的知识经验被人所熟悉掌握,从而人们能够根据条件与结果之间的关联性设计出线性的因果规则。然而,在诸多复杂领域中,条件与结果之间的关联性并非是简单线性的,而是多维度的,知识与经验不可能为人们所完全掌握。AlphaGO与人类在围棋上对弈的例子,更是表明了人们所认为存在着的关联性未必就是正确的。
基于机器学习的生成式人工智能,则能够在自我迭代与进化中持续优化、动态升级,使输出的结果不断接近真实世界运作的情况:根据缩放定律(scaling law),只要训练数据够大、参数够多、算力够强,生成式人工智能就能展现出相应级别的涌现能力(emergent abilities);这种涌现能力又不断地反馈给自身,以帮助其持续改进关联性分析模型,提高输出表现,甚至作出比人类更为精准、高效的关联性分析。
譬如,在生物学领域,传统的蛋白质解构方法可能需要数年时间,才能描绘出单个蛋白质的形状,成本高昂的同时还不能保证成功解析其结构。而接受过大量蛋白质结构数据训练的人工智能,能够结合物理、化学和生物学的先验知识,在较短时间内就可以给出对蛋白质结构解析的预测模型。
3. 个性化的结果输出能力
在持续性的自主学习能力和自适应的关联分析能力加持下,生成式人工智能具有远超传统人工智能的理解能力与交互能力,使得用户无需学习编程语言就能够实现与机器的对话,并以此为基础,在结果输出能力上有质的突破。
以 ChatGPT 为例,基于 Transformer 的机器学习架构使其能够借助自注意力机制高效地处理序列数据,并具有理解该序列所对应的前后序列的能力,通过捕捉语言之间的关系和结构来帮助生成更一致与更关联的响应,从而作出逻辑连贯的回答。
于是,ChatGPT得以在几十轮连续对话中保持对话主题的一致性和专注性,且具有相当程度的交互能力与修正能力,可以根据对上下文的理解以及用户的反馈来改进自身生成的内容。不仅如此,其还可以通过关键词提取、命名实体识别和句法分析等技术,从长篇文本中提取关键信息并进行汇总和归纳,以形成精炼且高度相关的内容概括。这使得ChatGPT的输出结果具有相当的个性化,经过简单的“微调”就可在不同场景中满足用户的多样化需求。
例如,在医疗卫生领域,经过预先训练的ChatGPT能够根据用户提供的症状、年龄、病史等资料提取关键信息,结合医学知识生成简明扼要的个性化诊断建议或治疗方案。值得一提的是,ChatGPT 甚至能够在对话中捕捉到用户的语言情绪、措辞习惯等个性化特征,并据此生成接近用户风格的回答。这种以拟人化的姿态给予使用者人性化交流的感受,正是生成式人工智能的独特之处。
(二)生成式人工智能在征信行业的应用潜能
处在信息技术与金融服务的交叉领域,每一次技术的进步都会促使征信业发生飞跃。根据我国《征信业管理条例》第2条规定,完整的征信业务流程可概括为输入、处理、输出三个阶段。生成式人工智能的嵌入,有助于更加便捷高效地完成上述三个阶段的工作。
1. 提高信息输入效率
征信业务在输入阶段的工作主要是对信用信息的采集与整理。传统的信用评估中,征信机构需要通过逐一采集的方式,对征信对象的信用信息进行识别、整理,这在线下、低频的交易模式中并无大碍。互联网时代,具有大量、高频、小额特点的线上交易模式,催生了海量、广泛的信用数据,这迫使信息的采集、整理方式必须调整至与之相适应。
此前,大数据、爬虫等技术的应用,已经极大简化了信息的采集与整理流程。然而,由于操作门槛高,针对新场景需要重新设计算法,上述技术的全面推广仍然受到成本方面的掣肘。得益于生成式人工智能强大的学习能力与自然语言处理能力,使用者不需要具有专业的计算机知识,就能够通过日常用语向机器提出需求,使“每个人都可以成为一个程序员”。这大大降低了此类技术的使用难度,有助于征信机构降低信息输入的工作成本,提升整体效率。
首先,征信机构只需输入筛选的条件与要求,经过训练、“微调”的生成式人工智能就能够借助其自主学习形成的算法迅速完成海量信用信息的采集。其次,借助生成式人工智能提取关键信息、汇总、归纳的能力,征信机构能够以极低的人力资源、极短的工作时间对海量数据进行整理,实现信用信息输入工作的高效完成。
2. 提升信用评估准确性
传统征信业务在处理阶段的工作,主要是由输入的信用信息经过给定的算法或规则计算完成。由于是人为设计且固定不变的,因此会存在算法不够完善、无法具体情况具体分析、无法及时调整规则等方面的弊端,以至于影响评估结果的准确性,使其无法反映真实情况。例如因部分信息的不理想而被一刀切列入负面清单。
生成式人工智能在处理阶段的嵌入,有助于提升信用评估的准确性。具体而言,经过海量信用数据的训练,生成式人工智能可以凭借其关联分析能力,构建更为复杂和全面的评估模型;并在此基础上,结合征信对象的历史数据与个性,不断完善、深化模型,避免因部分信息的不理想而导致整体评估存在偏见,最终促使评估结果更加趋近个体的实际情况。
Google公司就曾在对消费者作信用评估时发现,人工智能可以对那些仅拥有部分信用记录的消费者得出相对良好的信用评估结果。在对消费者负面信息进行深入挖掘的过程中,评估模型通过替代数据的寻找和补偿,发现不少传统规则下为负面评价的消费者其实具有很强的还款意愿,从而给出了更为真实、准确的信用评估。
3. 具备生成与解读信用报告的能力
生成式人工智能在征信业务的输出阶段同样应用前景广泛,其个性化的结果输出能力,使其在生成、解读信用报告方面具有巨大潜力。
一方面,凭借提取关键信息、归纳总结的能力,生成式人工智能能够对先前整理所得的信用信息作进一步的整合分析,并在自然语言理解能力和生成能力的加持下,根据使用者在内容、格式等方面提出的要求,自动批量地生成不同侧重、不同篇幅的信用报告,从而替代大量的人工操作和处理流程。
另一方面,从征信的目的来看,使用者所需要的并非是信用报告本身,而是隐藏在信用报告背后的信用评估结论。就报告本身而言,虽然包含丰富的信用信息,但由于这些信息都是非结构化的,通过排列组合能够得到不同的结论,因此如何有效解读信用报告中大量的非结构化信息,一直都是信用评估的重点与难点。对于经过预先训练的生成式人工智能来说,由于其出色的自然语言理解能力和结果输出能力,完全可以从使用者思维的角度解读冗长的信用报告,并通过不断地交互与对话明确使用者的真正需求,给出针对性的意见或建议,有效帮助使用者准确把握信用报告中的关键内容。
4. 具备一定的风险预知能力
传统的征信业务以报告的出具为流程终点,报告内容是对征信对象过去行为的总结与回顾,最终的风控措施往往由使用者根据对报告的自身解读作出。然而,由于每个人都会有自己的主观看法与偏见,同时受限于专业知识的不足,由此形成的风控措施就会不可避免地带有某种系统性偏差。
生成式人工智能在机器学习深入的过程中,可以根据不同对象的历史数据或“趋势性”数据构建个性化的预测模型,在此基础上结合实时数据流来感知潜在的风险变化,全面评估面向未来的信用风险,因而具有将业务流程拓展至风险监测环节的潜能。而且因为减少了人为因素所致的系统性偏差,从某种意义上来说,生成式人工智能相对于人类个体而言具有更为一致、稳定的风险预知能力。更值一提的是,自主学习与关联分析的能力还使得生成式人工智能特别擅长识别异常情况,这对发现可能的欺诈行为或不寻常的交易活动至关重要。这种针对性反馈的能力正是如今复杂、多样的社会信用环境所急需的。通过对异常行为的提示,金融机构可以及时采取措施预防损失发生。
二、征信领域应用生成式人工智能的风险隐患
生成式人工智能在征信领域的多方面应用潜能,虽然能够助力征信机构实现更为精准、定制化及实时的信用评估服务,帮助金融机构做好风险管理,保护自身利益并维护市场稳定,但目前该项技术距离在征信领域的成熟应用,仍然面临着一系列的挑战。
(一)输出结果的质量问题
1. 文本专业性欠佳
虽然相比以往的人工智能,生成式人工智能在自然语言处理能力上取得了重大突破,但在深度语义理解、逻辑连贯性以及特定知识的整合运用上还存在诸多不足,这使得其输出的文本在专业性上难以保证。
依赖于统计学关联而非因果推理的技术原理,使得生成式人工智能尚且只能做到对浅层信息的归纳与整理,而缺乏专业角度的深入分析,无法真正像人类那样理解和解释复杂信息背后的底层逻辑或深层次含义。这种缺陷又进一步导致了其在逻辑连贯性上的短板,可能因前序理解的不深入而引起后续分析的割裂。
此外,生成式人工智能在其模型训练中所注重的是通用性的语言表达能力,对于不同领域专业知识的训练往往是浅薄且分散的,因此学到的专业知识同样是碎片化的,无法保证其在细分领域的专业深度。
由此,如果在训练数据中缺乏征信领域的专业知识,那么输出的结果在形式上可能存在专业性不足的问题。尽管能够进行针对性的“微调”,但在征信领域的严格规则限制下,对专业知识的运用往往需要深入理解信息之间的交互作用、因果关系,而不仅仅只是概率上的关联。在当前技术水平下,生成式人工智能虽然可以做到对专业报告在复杂文本结构和语言模式上的模仿,但因在深层逻辑上缺乏因果推理能力而无法捕捉到信息之间的细微差别,其模仿的结果仍可能会是“一本正经地胡说八道”。
2. 内容可靠性不足
通过在征信领域的针对性训练,配合围绕征信规则设计的专家系统和知识图谱,输出结果在文本专业性上的不足能够得到一定弥补。然而在内容可靠性上,生成式人工智能存在着难以克服的自身缺陷,具体包括内容偏见和内容失实两个方面。由于在表现形式上更为隐蔽,这种危害更甚。
内容偏见的缺陷,是因为生成式人工智能输出的结果在根本上取决于算法的选择以及用于模型训练的庞大数据库。这就可能带来如下隐患:开发者出于特定的利益考量或自身偏好去设计带有偏见的算法,或者使用带有偏见的数据样本进行训练,生成式人工智能的输出结果就可能会更符合开发者的个人意图而背离客观中立的价值立场。这种情况下,生成式人工智能绝非是一个价值中立、没有偏见的工具。譬如,出于对地域或职业的偏见,开发者可能会主观地认为某一类群体的信用状况较差,如果这种没有根据的想法被融入算法或数据库之中,人工智能的输出结果就会呈现出某种偏向,作出的信用评估可能导致某一类群体的利益受到严重损害。
内容失实的缺陷,根源仍然在于生成式人工智能基于统计学关联而非基于因果推理的技术原理。因此对于输出的内容是否真实准确,人工智能自身无法作出有效判断,甚至可能会因为必要信息缺失、替代信息不存在而捏造虚假信息。美国就曾发生过律师错误引用ChatGPT编造的虚假案例的事件。如果生成式人工智能输出的虚假信息被误用于信用评估,势必严重影响征信结果的可靠性,从而进一步导致相关风险管理举措缺乏合理性。
(二)数据泄露的安全问题
1. 模型训练导致的直接泄露
与其他计算机程序一样,生成式人工智能作为一套复杂系统,自身可能存在诸多未知的风险隐患。诸如算法设计不当、存储系统异常、安全漏洞等技术缺陷,都会导致其在模型的训练过程中面临数据泄露的安全隐患。微软、亚马逊等多家科技公司就曾警告员工不要与ChatGPT分享任何敏感信息,以免数据泄露而导致商业利益受损。事实证明,这种担忧并非空穴来风。
在 2023 年 3 月,ChatGPT 发生了一起极为严重的数据安全事故,部分用户的聊天记录、信用卡信息、电子邮件等信息遭到泄露,而这可能是因为部分涉及个人信息的数据被模型用于训练后未及时删除,叠加内部开源数据库出现技术故障所致。
随着人们对数据安全的进一步重视与发展,去标识化、匿名化等技术手段日渐成熟。然而,生成式人工智能在模型训练过程中所涉及的数据体量之大、处理主体之多、处理环节之长,远超传统的数据处理系统,“一招不慎、满盘皆输”,其所面临的泄露风险也会成倍增加。为使分析、输出的结果更加精准,征信领域应用生成式人工智能势必需要借助专业的信用数据库进行针对性训练。
通常来说,信用数据包括了身份识别、金融账户等高度敏感的个人信息,一旦泄露或者被非法使用,极容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害,造成难以挽回的灾难性后果。
2. “拼图技术”下的间接泄露
除技术缺陷在模型训练中引起的直接泄露风险之外,生成式人工智能还存在着一种数据间接泄露的风险。由于人工智能需要通过不断地自我迭代来持续升级和优化模型,因此在理论上,存在上一版本训练过程中收集得到的数据被下一版本作为训练成果而输出的可能性,从而泄露包括用户上传的敏感数据、个人信息和商业机密在内的训练数据。
尽管生成式人工智能在发布时通常都会采取安全措施,尽可能地删除有关信息或作匿名化处理,但从现有的技术水平来看,完全、彻底的删除或匿名化都是无法实现的,因而仍然会有部分信息残留被最终发布的模型所输出。自然,对于一般的个人使用者来说,这些分散在不同输出结果中的信息残留并无太大的利用价值。但由于数据挖掘、分析的技术不断进步,如今业已形成了一种通过对比、组合海量数据,将零碎信息拼凑、组合形成完整信息的“拼图技术”。别有用心者能够以此实现对信息的再识别,且每一次的再识别都会助长未来的再识别,最终在高频、渐进的迭代累加下,任何分散的信息碎片都可能通过不断拼凑而形成完整的数据集。由于形式上的隐蔽性,利用数据的间接泄露达到非法目的将会很难被发现和察觉,严重时还可能威胁到国家数据与社会金融体系的安全性。
(三)信息处理的合规问题
1. 输入端:违反目的限制原则
处理个人信息应当具有明确、合理的目的,且必须与处理目的直接相关,并采取对个人权益影响最小的方式,不得过度收集,此即为我国《个人信息保护法》所规定的个人信息处理之目的限制原则。从信息输入端来看,生成式人工智能突破目的限制原则的情形屡屡发生,信息处理存在合规问题。
个人信息处理者在收集个人信息时,通常需采取“一对一”的方式在告知程序中向信息主体明确说明个人信息的处理目的并取得同意;倘若处理目的发生变更,则需要再次履行告知程序并重新取得同意。但绝大多数情况下,生成式人工智能并不会就信息的收集以及后续在模型训练中的处理情况向信息主体作出明确提示,用户甚至无法知道与之相关的个人信息是否已经被收集,更无从知悉个人信息的处理目的。
即便已经明确告知信息主体相关处理目的并取得同意,随着应用场景发生变化,生成式人工智能对此前收集所得的个人信息进行重新处理也是十分常见的。由于涉及的信息在数量上十分巨大,逐一向信息主体重新取得同意不具备实现的可能性,模型训练直接面临合规性考验。更需要关注的是,与征信有关的个人信息通常都高度敏感。从我国《个人信息保护法》的规定来看,只有具备特定的目的和充分的必要性,并在取得个人单独同意的情况下,方可处理敏感个人信息。这意味着对信用信息的处理许可不容许被用户的概括同意所包括,而必须取得个人信息主体的单独同意,甚至在特定情况下还需要取得用户的书面同意,无疑给征信领域应用生成式人工智能的合规性带来了更为严峻的挑战。
2. 输出端:决策过程不透明
根据我国《个人信息保护法》第24条规定,利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正。从运行原理来看,征信领域应用生成式人工智能分析信用数据、输出信用评估报告符合自动化决策的定义,应当严格遵守这一条款,确保决策透明度和结果的公平、公正。前文已对算法、数据偏见引起的输出结果质量问题有所论及,在此不再赘述。关键在于,即便是在算法中立客观、公开透明的情况下,生成式人工智能在信息输出端也会因算法的可解释性不足而面临合规性考验。
既有研究认为算法可解释性不足的原因主要包括两个方面:一是算法的专业性与复杂性,在一定程度上牺牲了算法的可解释性;二是在商业秘密与知识产权制度的保护下,算法可解释的行动力会受到阻碍。
因此在对策建议上,如果涉及公众利益,通常会追求算法的备案、算法的审查乃至算法的全面公开。然而,生成式人工智能的算法模型不仅高度专业与复杂,其决策更是以相关性为基础,得出的结论远非因果关系所能够解释清楚的。“知其然而不知其所以然”的决策过程,使得算法的公开透明毫无意义,因为即便是算法的设计者自身,也无法理解算法是怎样作出决策的。
同样根据《个人信息保护法》第24条规定,通过自动化决策方式作出对个人权益有重大影响的决定时,个人有权要求个人信息处理者就决策过程、决策依据予以说明。毫无疑问,征信评估的结果与个人切身利益关系密切。在算法自身无法保证决策透明度的情况下,如何向征信对象解释决策过程,将会是征信机构应用生成式人工智能的重大挑战。
三、征信领域应用生成式人工智能的治理对策
技术上的突破,使得生成式人工智能在征信领域具有相当可观的应用前景,但同时也面临着前述诸多挑战。因此,亟须通过制定切实的治理对策,在充分开发应用潜能的同时,预防潜在风险造成的损害。
(一)规范体系层面:风险预防与权利保护相结合
1. 以目标为导向作框架性立法
从规制的对象来看,征信领域应用生成式人工智能面临的风险隐患,可进一步划分为不当使用产生的风险和系统自身存在的风险。就前者来说,在一定程度上仍可以通过传统的要件式立法(例如侵权法)予以管制。但就后者而言,作为新生事物,生成式人工智能技术发展变化较快,情况相对复杂,传统追求制度普遍性与稳定性的要件式立法容易导致规制过度或规制不足,难以支撑起技术迭代、模式变革所需要的发展空间。
因此,有必要引入一种目标导向式的框架性立法理念,以立法者意图实现的目标为行为指引,将目标达成的方式、方法、路径等事项精准授权给征信机构和开发者,在确保能够达成目标的情况下,由机构和开发者自主选择与目标相适宜的规制方式、行为标准、实现手段。
从意图实现的目标来看,征信领域应用生成式人工智能应当包括提升征信服务质效、加强征信风控水平和保护个人合法权益三项目标。
在具体的立法进路上,一是可以参照我国2024年3月发布的《人工智能法(学者建议稿)》,在未来的人工智能立法中设置专门的条款,将征信领域明确规定为特殊应用场景;二是在征信领域继续加强法律制度供给,现有《征信业管理条例》《征信机构管理办法》《征信业务管理办法》在效力层级上较低,仅为行政法规、部门规章,且并未对信用信息的使用边界、应用场景予以明确,在制定发布时尚未顾及人工智能发展对征信业可能的影响,有必要在将来制定“征信法”时,将生成式人工智能作为一项重要因素考虑在内。
以上两条立法进路都需要对前述三项目标予以明确规定。但为预留技术运用的试验空间,总体上应当持较为宽松的规制立场,赋予征信机构和人工智能的开发者更多自主权限,允许其自行设计与风险程度相匹配的程序及规则,通过“尽力合规”的方式达成目标。与此同时,为避免因规则指引不清晰引发自主权限被滥用、误用,必须强化责任担当,建构以目标达成度的判断、目标内涵的解释与手段选择的说理为核心的动态法治框架。
2. 以人为本确立基本原则
鉴于技术的迅速迭代和对业务创新的有益推进,目标导向式的框架性立法不宜设置过细的法律义务和过重的监管负担,但仍应存在基本原则作为不可逾越的“底线”。
一方面,法治应当充分保障人的自主性,算法决策却在有意无意间逃离了法律之治,集中体现为法治观念所强调的问责性价值流失,这与人自主进行的行为选择存在本质上的差异。对人工智能的过度依赖,大有将人从决策主体沦落为决策“客体”之势。
另一方面,科技发展的目的是要更好地服务于人,在2023年10月中央网信办发布的《全球人工智能治理倡议》中,在倡议首条即明确表示,“发展人工智能应坚持‘以人为本’理念……确保人工智能始终朝着有利于人类文明进步的方向发展”。这既是我国发展人工智能对世界的承诺,也是我国对处于人工智能时代的每个人的承诺。为此,需要围绕以人为本的法治理念,确立如下几项征信领域应用生成式人工智能的基本原则。
一是辅助性原则。生成式人工智能在原理上注定了其存在现有技术水平下难以弥合的固有缺陷,但由此引发的风险并非是不可控的,通过适时的人工介入,在很大程度上可以有效降低系统运行的风险,因此要坚持“人在回路”。“人在回路”是指人类作为算法决策的把关者介入算法决策的具体应用场景,承担包括纠正算法错误、判断是非、维护人类利益等在内的多重任务。
在征信领域应用生成式人工智能同样应当坚持“人在回路”,明晰其工具定位、辅助定位,以人工复核的形式对决策结果作最终定论,通过人的在场确保人类理性、人类伦理、人类价值观的在场,起到对决策内容准确性的担保与监管作用,避免算法歧视、数据偏见对征信对象合法权益造成侵害。
二是正当程序原则。正当程序主要包括事先告知、说明理由、公平公正、听取陈述和申辩、提供救济途径几个方面。生成式人工智能在信息的收集和处理上都存在透明度问题,容易损害信息主体的知情权,在涉及信用信息等敏感个人信息时存在严重的合规风险。
对此,征信机构在引入生成式人工智能辅助业务工作时,特别需要保障征信对象的知情权,应当告知征信对象可能被收集的个人信息类型、用途,并且需要根据我国《个人信息保护法》的相关规定,就自动化决策的存在作出说明,向征信对象提供自动化决策不针对其个人特征的选项,或者提供拒绝自动化决策的便捷途径。
三是比例原则。在可预见的将来,生成式人工智能还不能够很快实现决策过程完全透明、决策结果完全可解释,但也并不意味着完全的不透明与完全的不可解释。对此,应当坚持比例原则,实现合乎比例的风险管理,确保目标导向式的立法理念得到落实。
例如,对于征信对象权益潜在影响越大,则越应当追求生成式人工智能算法的成熟性,确保决策过程、决策结果具有与风险程度相适宜的透明度及可解释性;对于受制于技术水平限制而无法提高透明度与可解释性的算法,则应当在保留应用范围与应用程度的同时,增加人工介入的比例,避免因技术不成熟造成的损害。
(二)治理主体层面:协同共治、多元参与
1. 跨部门协同治理
征信业务涉及个人信息保护、数据安全、金融稳定等多个方面,本身就具有跨部门监管的特点。叠加生成式人工智能跨领域、跨行业应用的发展趋势,构建跨部门协同治理机制更为紧迫,有利于整合资源,提高治理举措的一致性和执行力度。
我国曾于2023年制定发布了《生成式人工智能服务管理暂行办法》,在治理主体上涉及国家发展改革委、科技部、工信部等在内的七个部门。然而,由于尚处于制度建设刚起步的早期阶段,目前就如何有效协同治理生成式人工智能而言,仍然存在因部门之间责任划分不清晰而“趋利避害”的隐患:对于存在困难的“坏事”可能相互扯皮,对于存在利益的“好事”则争相管理,最终致使治理无法形成合力。
征信领域应用生成式人工智能牵涉的部门更多,更容易出现“参与者越多,责任归属时越容易相互推诿”的“多手问题”(the problem of many hands)。为此,首先应当充分考虑到生成式人工智能在征信业务中的辅助性地位,建立以征信业监督管理部门为核心机构的统筹协调治理机制,明确各个部门的职责划分。
其次,要建立横跨多部门的信息共享机制,通过透明、实时的信息交互,消除“职责孤岛”与“信息孤岛”,避免多头管理。再次,要加强建设问责机制和交流机制,一方面通过有力的问责避免“多手问题”出现,对于未能按照职责划分造成管理混乱或矛盾的责任方给予相应处罚,同时鼓励积极主动配合,对协同成效显著的部门予以奖励;另一方面则通过增进各部门间对彼此职能、业务特点和需求的理解,提升协同工作的默契度。
2. 公私合作治理
现代社会,私营部门不再只是被治理的对象,也是治理的主体。从规制理论来看,由私营部门参与的多元合作机制是对政府治理短板的必要补缺。
第一,开发者的参与能够在专业知识上起到补足作用。政府部门虽然具备法规制定和执行的能力,但往往在专业深度上对新兴技术了解不足。相反,开发者作为生成式人工智能研发和应用的主要力量,具有丰富的技术经验和知识储备。与开发者合作,能够有效补足政府部门在专业知识与技术上的短板,帮助政府准确理解技术现状与发展趋势,进而把握潜在风险,精准施策。
第二,征信机构的参与能够在标准共建上起到引导作用。征信领域应用生成式人工智能必须在各个环节都确保合法合规、安全可控。相对来说,长期从事征信业务的征信机构在业务合规、风险管控方面具有不可替代的经验价值,能够识别、评估各个环节的大致风险,并熟悉相应的防范措施。征信机构的共同参与,有助于引导政府部门制定的行业标准与行为准则更契合征信业的实际情况。
第三,征信对象的参与能够在风险识别上起到增强作用。无论现代治理体系多么完善、投入的力量如何之多,总是会缺乏一种必不可少、能够有效发现并且阻止潜在风险的信息资源,而掌握这些信息资源的人,往往是风险损害的当事人。
在应用生成式人工智能的情况下,无论是征信机构在业务流程中设置便捷的异议机制,还是政府部门设置投诉举报机制,都能够借助征信对象的力量及时捕捉异常信息,起到增强风险识别能力的作用。
(三)监督管理层面:包容审慎与分类分级并行
1. 原则性与灵活性相结合的监管立场
监管立场上,对征信领域应用生成式人工智能进行规制应当包容审慎,坚持原则性与灵活性相统一,既不能以灵活性损害原则性,又不能以原则性束缚灵活性。
所谓原则性,就是对风险的审慎,需要以集中式治理的监管理念,守住不发生系统性风险的底线。尽管集中式监管存在适应性差、缺乏必要弹性等弊端,可能会给技术创新带来限制,影响行业的进步与发展,但其以治理结果为中心,强调秩序性、前瞻性防范与集中性、整体性治理的模式,能够通过集中监管权力来有效解决风险应对不集中、不及时等问题。
特别是对于征信这样涉及个人敏感信息处理的重点领域来说,数据一旦被泄露或者非法使用都将造成不可挽回的后果,落实立法层面所确立的三项原则离不开强有力的监管措施。强化征信领域应用生成式人工智能在重点风险方面的监督及管理,有助于实现对风险隐患强有力的整治,从而维护公共利益。
具体体现为有必要但有限度的监管:一是制定征信领域应用生成式人工智能的行业标准,通过设置准入门槛,确保生成式人工智能具备最低程度的技术成熟度;二是在征信业监督管理部门中,设立独立的人工智能监管机构,对生成式人工智能在征信领域的应用情况以及相应算法进行备案,在必要时予以审查;三是设立问责制,通过要求定期公开使用情况、报告风控措施等方式,确保征信机构实现尽力合规。
所谓灵活性,则是对创新的包容,需要以回应式治理的监管理念,应对技术发展带来的不确定性。回应式治理通过建立一种灵活适应、包容可持续的协调机制,鼓励企业主动承担安全责任,避免政府过度干预而对发展造成阻碍,能够充分顾及技术与业务模式的创新需要,克服集中式治理的僵化与不适应。
对于征信这样业态与模式多样的领域来说,包容、互信、开放的监管环境有利于进一步推动行业整体对数据资源的高效利用和良性开发。具体体现为有限度且灵活的监管,在监管机构适度发挥他律性作用的同时,注重引导被监管对象发挥自律性作用,兼顾预防与应对。
就预防方面而言,在满足行业最低标准的前提下,监管机构应当鼓励征信机构根据自身经营范围、业务规模等自身实际情况,详尽梳理应用生成式人工智能在信息收集、处理、输出、存储等各环节所面临的可能安全威胁,在此基础上建立周全的风险评估分析机制;就应对方面而言,监管机构应当积极推动征信行业内、征信机构与人工智能开发者之间建立快速、协调的应急响应机制,有效控制业已发生的危害后果,最小化安全事件所波及的影响范围。
2. 分类分级的监管方式
我国《生成式人工智能服务管理暂行办法》第3条初步规定了分类分级的监管方式。不过,这一规定十分模糊和笼统,仅仅以“原则”的形式进行阐述,尚待进一步细化。由于不同领域、不同场景、不同环节应用生成式人工智能所面临的风险在类型与程度上均不可一概而论,因此有必要就如何在征信领域应用生成式人工智能作分类分级监管进行专门讨论。需要注意的是,尽管分类与分级具有一定的交叉和相似之处,但仍然应当视作两个不一样的具体标准,对其予以明确界分。
首先,应当根据生成式人工智能的应用场景进行分类,其目的在于通过明确行为性质、划定处理边界来定位风险的归属,为进一步的分级奠定基础。根据应用场景的不同,可以将征信领域对生成式人工智能的应用类型区分为三大类:
一是基础模型类,即对个人或企业信用历史、信用数据等原始信息进行处理和学习的底层模型,以及在此基础上构建的信用评分系统;二是决策辅助类,例如在信贷审批流程中,生成针对特定申请人的综合信用报告或者提供贷款决策建议的人工智能系统;三是风险监测类,如通过实时监测交易行为,从而识别潜在欺诈或异常交易模式、预测违约风险的系统。
其次,应当根据信息的重要性进行分级,其目的在于确定数据泄露或不当使用的可能风险程度,以此决定实施管理措施的力度和类别,实现差异化安全防护。
具体可以参考欧盟《人工智能法案》中的风险定级,根据风险程度将监管从低到高分为三个等级:
一级监管主要针对非敏感、非核心征信服务等较低程度的风险,如表格材料或客户服务等文本的自动化生成,这类应用风险相对较低,因而监管重点在于保证内容准确性;二级监管主要针对中等程度的风险,相对重要但不直接影响信用评估的决策环节,例如部分自动化评估结果、信用报告的生成,监管重点在于确保数据源合法合规、生成过程可追溯、结果公正无误;三级监管主要针对较高程度的风险,通常会直接影响信用评估决策的核心服务,例如高度自动化的信用评级和授信决策模型,监管层面需要对其模型算法、公平性和歧视性审查、数据安全和隐私保护等方面提出更为严格的审核要求。
在具体措施上,可采用包括但不限于信息披露、算法备案、算法审查和监管沙箱等不同力度的工具,实现覆盖事前、事中、事后全流程的分类分级监管。举例来说,对于风险程度较低的一级监管,可能要求征信机构就生成式人工智能的应用作出说明或标识即可;对于风险程度较高的三级监管,则可能需要在正式投入使用前在监管沙箱受控的环境下进行测试。还应当认识到的是,由于风险本身的动态变化,分类分级的监管方式自身同样需要被不断地审查与调整,使之具备能够动态适应实时变化的“可延展性”,实现生成式人工智能应用监督管理体系的持续优化和迭代升级。
四、结语
2024年3月,联合国大会通过了全球首个关于监管人工智能的决议《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》。
决议表示,各国认识到“人工智能系统的设计、开发、部署和使用速度加快,技术变革日新月异,对加快实现可持续发展目标具有潜在影响”,为此呼吁抓住“安全、可靠和值得信赖的”人工智能系统带来的机遇,让人工智能给人类带来“惠益”,并以此促进可持续发展。
毫无疑问,生成式人工智能凭借强大的学习能力、关联分析能力与结果输出能力,为征信领域未来的高质量发展注入了革故鼎新的技术潜力,但也对现有的规制体系造成了不小冲击。为此,亟须通过切实有效的治理对策,对创新发展与风险防范的现实需要作出同步回应。
不可否认的是,从长远来看,无论是征信行业本身,还是生成式人工智能自身的安全风险治理,都不能安于现状,在推动业务创新、技术发展的同时更需要推动治理模式的创新与发展。概言之,征信领域对生成式人工智能的应用需聚焦于数据安全、模型公平性、业务连续性以及征信对象的合法权益,在确保技术进步的同时有效防范系统性风险。唯有如此,才能够与时俱进地引导创新向善、科技向善,共同推动行业整体的健康有序发展。
源点注:本文作者丁略涛(浙江大学光华法学院)
编辑:辉星
校稿:砳砳
来源:征信、源点credit
热门跟贴