文 / 中央财经大学法学院教授、博士生导师黄震
中央财经大学法学院博士研究生 马文
人工智能金融应用的风险表现
信息处理和数据聚合是现代金融系统的核心任务之一,而人工智能应用程序在这一过程中扮演着越来越重要的角色。根据国际标准化组织(ISO)对人工智能的定义,人工智能是“一个跨学科领域、通常被视为计算机科学的一个分支,通过处理模型和系统实现一般与人类智能有关的功能,如推理和学习”。AI应用程序的这些特点提高了金融系统的信息处理、数据分析、模式识别和预测能力,业务应用场景日趋广泛。但与此同时,人工智能在金融领域的广泛应用仍存在较多风险,这既包括大模型本身的技术风险在金融领域的映射与放大,也包括大模型与金融业务深度融合形成的潜在的新型金融风险。
一方面,人工智能技术的自有风险衍生至金融领域。一是数据安全风险。数据是模型训练反馈循环中的基本角色。人工智能数据来源的多样性和复杂性导致数据质量难以保证,存在数据错误、数据缺失等问题。在金融领域使用人工智能处理大量个人和敏感数据,增加了数据泄露和隐私侵犯的风险。二是算法偏见与歧视风险。人工智能驱动的模型很可能有意或无意地产生带有偏见或歧视性的结果,对某些群体产生不公正的影响。苹果高盛联合推出的“苹果信用卡”就引发了算法性别歧视的激烈讨论。三是“幻觉”等可信度风险。在输出内容可控性方面,大模型通过压缩海量信息形成了较为强大的通用泛化能力,在内容生成环节具备一定的创造力,与此同时也带来了“幻觉”问题带来的输出结果不可控的痛点,导致结果不可用、甚至误导金融机构和金融消费者的判断和决策,进而损害金融从业者的信誉、金融消费者的利益。除此以外,算法具有较强的“黑箱”特征,生成结果的原因和方式往往难以被解释,导致金融机构难以在事前、事中、事后对其进行有效的风险溯源和管理,以及算法归责和法律救济。
另一方面,大模型与金融业务的深度融合形成了潜在的新型金融风险。美国金融稳定监督委员会(FSOC)发布的《2023年年度报告》首次将人工智能在金融服务中的使用确定为可能威胁金融稳定的风险漏洞。金融机构呈现出越来越依赖少数外部第三方服务提供商的趋势,面临着更大的第三方依赖风险,金融体系中形成了新的脆弱性。例如,大多数基础模型由Google、Nvidia、OpenAI等少数提供商开发,有可能形成新型“大而不能倒”风险。金融机构使用第三方提供商的“现成”模型或改编模型,会加剧羊群效应、流动性囤积、挤兑和资产甩卖,从而放大顺周期性和市场波动,也违反了关于市场操纵行为的监管要求。
人工智能金融应用的法律治理现状
人工智能的快速发展带来了前所未有的机遇,同时也衍生出数据安全、算法偏见、隐私侵犯、金融系统脆弱性等一系列风险。可以说,人工智能与金融应用的深度融合既是科技赋能金融创新的过程,也是酝酿与产生社会风险的过程。法治是以法律制度为主导的社会调控方式,是一种以普遍法律规范为基本行为尺度和生活准则的国家—社会治理模式。预防、规避和消除风险是现代社会中法治的基本功能。
我国紧密关注人工智能技术发展及具体应用,并积极展开治理探索。在人工智能整体立法和规划方面,2017年国务院发布《新一代人工智能发展规划》,在制定促进人工智能发展的法律法规和伦理规范、完善支持人工智能发展的重点政策、建立人工智能技术标准和知识产权体系、建立人工智能安全监管和评估体系等方面进行了整体部署。后续,我国不断完善人工智能相关规范,出台了《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》。
与此同时,金融监管部门也针对人工智能金融应用出台了相应规范。2019年人民银行发布《金融科技(FinTech)发展规划(2019—2021年)》,强调要稳妥推动人工智能技术与金融业务深度融合、根据不同场景的业务特征创新智能金融产品与服务、加强金融领域人工智能应用潜在风险研判和防范,推动建立人工智能金融应用法律法规、伦理规范和政策体系。2021年、2023年,人民银行相继发布《人工智能算法金融应用评价规范》《人工智能算法金融应用信息披露指南》。
法律治理完善路径
当前,我国已经围绕人工智能产业发展的关键要素和关键问题,初步构建了多层次的规范体系。面对日新月异的人工智能技术迭代,以及人工智能赋能金融应用的必然趋势,我们仍有必要在实践中不断改良与优化既有治理框架,动态平衡创新与风险。一是动态平衡人工智能金融应用的创新与风险。
一方面要认识到人工智能金融应用是金融科技与数字金融发展、金融机构数字化转型的必然趋势。另一方面也要注意监测人工智能的创新和使用,准确识别和管理风险,确保监管适应金融体系的新风险。为促进金融创新并确保风险可控,可用监管沙盒为人工智能金融应用提供“试验场”,通过在受控环境中的测试,推动监管机构更好地理解技术的影响,并制定更为有效的措施。后续可纳入更多人工智能金融应用项目,对相关金融机构和技术类企业进行测试。
二是完善人工智能产业链关键要素的制度建设。人工智能的发展依赖于三个核心要素:数据、算法和算力。普适性的人工智能治理监管框架可被应用于各个行业。2023年以来,《人工智能法》已连续两年被列入国务院年度立法工作计划,并被列为预备提请全国人大常委会审议的立法项目。有必要在《人工智能法》中持续完善数据、算法和算力的制度供给与法治保障。例如,针对算法歧视等问题,《人工智能法》应在开拓算法公平综合治理机制的基础上,在概念界定、审查机制、责任分配、救济方式等方面作出清晰规定,应面向技术生命周期,围绕算法研发、部署和应用,在契合人工智能产业链堆栈架构的基础上,分层次、系统性地构建算法公平治理机制。
三是区分风险类型与分类监管。监管机构应在技术上保持中立态度,关注技术支持的、应受监管的金融流程和活动。这意味着监管将更加聚焦于技术应用的具体场景,而不是对技术本身进行一刀切的监管。在金融领域,随着金融科技的快速发展,风险管理变得更加复杂,亦需要区分金融风险、经营风险和技术风险,并实施分类监管。具体而言,金融科技公司介入金融领域后,金融链条上不同环节承担的风险性质不同。有些是部分出资,承担金融风险;有些是管理和操作成本,承担经营风险;有些是技术开发和运营,承担技术风险。技术风险中的模型风险也要进一步区分:一类是技术设计不当等设计开发的纯技术风险,应由技术提供方负责;另一类是使用者采纳不当模型引发的风险,宜由决策者负责。
四是加强监管部门间的信息合作和监管协调。人工智能金融应用的监管不仅涉及金融领域,还包括数据保护、网络安全等非金融领域,因此需要加强不同监管部门之间的协调合作,以提升监管的全面性和有效性。一方面,需要警惕人工智能算法对金融市场稳定性的影响,加强人工智能金融应用风险的统筹管理,发挥中央金融工作委员会的领导、保证、管理、监督、协调功能,强化对模型提供者等第三方机构的审慎管理。另一方面,加强跨领域、跨部门执法机构的协同。识别和化解数字经济时代的金融风险,不仅需要金融系统内部各监管机构的协同,还需要金融监管机构与中央网信办等数据监管机构开展执法协作,与国家数据局等机构做好金融数据流通的顶层设计,以数据监管与金融监管的跨领域、跨部门协同,保障数据与金融在要素资源层面的共同发展。
五是完善金融行业标准并提炼最佳实践。整体来看,当前我国针对人工智能金融应用的治理指南在系统性、可操作性上还相对欠缺。部分国家的央行已开始为金融部门制定相关监管框架,核心主题集中在可靠性、问责制、透明度、公平性和道德,其他指导原则还包括数据隐私、第三方依赖和运营弹性。在我国,《人工智能算法金融应用评价规范》《人工智能算法金融应用信息披露指南》是人民银行对金融算法展开“软法”治理的代表。未来,金融监管机构可以提供更具体的实际操作指导,例如可将这些人工智能治理框架的普适性原则做成最佳实践汇编,引导金融机构实操遵循,支持行业协会和专业机构制定行业标准和自律规范,提高行业自我管理能力,在规范层面和体系层面实现硬法、软法和科技三者的“融贯”。
(此文刊发于《金融电子化》2024年11月上半月刊
热门跟贴