金融机构正在迅速拥抱人工智能——但这会给金融稳定带来什么代价呢?本文认为,人工智能带来了金融当局可能没有做好准备的新型稳定风险,从而加剧了更快、更严重的金融危机。当局需要建立内部人工智能专业知识和人工智能系统, 将人工智能作为金融稳定部门的核心职能,获得可以直接与金融机构人工智能引擎交互的人工智能系统,建立自动触发的流动性设施,以及将关键人工智能功能外包给第三方供应商。
私营部门金融机构正在迅速采用人工智能 (AI),以期显著提高效率。虽然这些发展总体上是积极的,但人工智能也对金融体系的稳定性构成了威胁——人们对这些威胁知之甚少。
人工智能对金融稳定的影响存在争议。一些评论员持乐观态度,认为人工智能只是一系列技术创新中的一项,这些创新正在重塑金融服务,但不会从根本上改变整个系统。根据这种观点,人工智能不会对稳定构成新的或独特的威胁,因此对金融当局来说,这只是家常便饭。持这种观点的当局可能会将人工智能影响分析委托给组织的 IT 或数据部门。
我不同意这一点。人工智能与之前的技术变革之间的根本区别在于,人工智能会做出自主决策,而不仅仅是向人类决策者提供信息。它是一个理性的最大化 Agent ,执行分配给它的任务,这是 Norvig 和 Russell (2021) 对人工智能的分类之一。与之前的技术变革相比,人工智能的这种自主性为金融稳定带来了新的复杂问题。这意味着中央银行和其他当局应该将人工智能影响分析作为其金融稳定部门的核心领域,而不仅仅是将其与 IT 或数据放在一起。
人工智能与稳定性
人工智能对金融稳定构成的风险出现在人工智能技术与传统金融体系脆弱性理论的交叉点上。
人工智能擅长快速、可靠且廉价地检测和利用大型数据集中的模式。然而,它的表现在很大程度上取决于它是否接受过相关数据的训练,甚至可能比人类的训练还要严格。人工智能迅速果断地做出反应的能力——加上其不透明的决策过程、与其他引擎的勾结以及产生幻觉的倾向——是其稳定性风险的核心。
人工智能通过出色地完成非常简单的任务来建立信任,从而嵌入金融机构。随着它被提升到越来越复杂的任务,我们最终可能会得到人工智能版的彼得原理。
无论高层决策者希望如何,人工智能都将变得不可或缺。只要人工智能能够大幅节约成本并提高效率,那么“我们永远不会使用人工智能来实现这一功能”或“我们永远需要人类参与”的说法都是不可信的。
确保人工智能在高级任务中按计划行事尤其困难,因为它需要比人类更精确的指令。简单地告诉它“保证系统安全”太过宽泛。人类可以用直觉、广泛的教育和集体判断来填补这些空白。目前的人工智能做不到。
Scheurer 等人 (2024) 的论文提供了一个引人注目的例子,说明人工智能做出重大财务决策时会发生什么。论文中,语言模型被明确指示既要遵守证券法,又要实现利润最大化。当收到私人消息时,它立即进行非法内幕交易,同时向人类监督者撒谎。
金融决策者经常必须解释他们的选择,可能是出于法律或监管原因。在聘请某人担任高级职位之前,我们要求该人解释他们在假设情况下会如何反应。我们无法对人工智能做到这一点,因为当前的引擎可解释性有限——无法帮助人类理解人工智能模型如何得出结论——尤其是在高层决策中。
人工智能容易产生幻觉,这意味着它可能会自信地给出无意义的答案。当相关数据不在其训练数据集中时,这种情况尤其常见。这就是我们应该谨慎使用人工智能来生成压力测试场景的原因之一。
人工智能为那些希望利用技术进行有害活动的人提供了便利,无论是寻找法律和监管漏洞、犯罪、从事恐怖主义活动还是发动民族国家攻击。这些人不会遵守道德准则或法规。
监管的作用是将私人激励与社会利益结合起来(Dewatripont 和 Tirole 1994)。然而,传统的监管工具——胡萝卜加大棒——对人工智能不起作用。它不在乎奖励或惩罚。这就是为什么监管必须发生如此根本性的改变。
由于人工智能的学习方式,它会观察私营和公共部门中所有其他人工智能引擎的决策。这意味着引擎会进行优化以相互影响:人工智能引擎训练其他人工智能做出好或坏的决定,从而产生无法察觉的反馈循环,从而强化不良行为(参见 Calvano 等人,2019 年)。这些隐藏的人工智能到人工智能渠道是人类无法实时观察或理解的,可能会导致挤兑、流动性蒸发和危机。
危机难以预防的一个关键原因是系统如何应对控制企图。金融机构不会平静地接受当局的指示。不,他们会采取战略性反应。更糟糕的是,我们不知道他们会如何应对未来的压力。我怀疑他们自己也不知道。公共和私营部门参与者对极端压力的反应功能大多未知。
这就是我们掌握的极端事件数据如此之少的原因之一。另一个原因是,所有危机在细节上都是独一无二的。它们也是不可避免的,因为“经验教训”意味着我们在每次危机之后都会改变系统运作的方式。不言而喻,不稳定的力量总是在我们不注意的地方出现。
人工智能依赖于数据。虽然金融系统每天都会产生大量数据(高达 EB 级),但问题在于,大部分数据都来自系统结果分布的中间,而不是尾部。危机都与尾部有关。
缺乏数据会导致幻觉,并引发错误方向的风险。由于我们掌握的极端金融系统结果数据非常少,而且每场危机都是独一无二的,人工智能无法从过去的压力中学到很多东西。此外,它对最重要的因果关系知之甚少。事实上,这样的问题与人工智能的优势背道而驰。当最需要人工智能时,它知道的却最少,从而导致错误方向的风险。
人工智能对稳定性构成的威胁还受到风险单一文化的影响,而风险单一文化始终是繁荣与萧条的主要驱动因素。人工智能技术具有显著的规模经济,这得益于人力资本、数据和计算方面的互补性。三家供应商将主导人工智能金融分析领域,每家供应商几乎都垄断了其特定领域。当私营和公共部门的大多数人别无选择,只能从单一供应商那里了解金融格局时,金融稳定就会受到威胁。其后果就是风险单一文化。我们吹大了同样的泡沫,却错过了同样的系统性漏洞。人类更加多样化,因此在面临严重的不可预见事件时,人类更能发挥稳定作用。
人工智能速度与金融危机
面对冲击,金融机构有两种选择:逃跑(即不稳定)或留下(即稳定)。在这里,人工智能的力量对系统不利,尤其是因为整个行业的人工智能将迅速集体做出相同的决定。
当冲击不太严重时,吸收甚至对抗冲击是最佳做法。随着人工智能引擎迅速收敛到“保持”平衡,它们在危机变得过于严重之前为市场奠定了基础,成为稳定的力量。
相反,如果避免破产需要迅速果断的行动,比如在市场下跌时抛售资产,从而破坏金融体系的稳定,那么人工智能引擎就会集体这么做。每个引擎都希望通过率先行动来将损失降到最低。最后行动的引擎将面临破产。这些引擎将尽快抛售资产,收回贷款,并引发挤兑。这将使危机在恶性循环中进一步恶化。
人工智能的速度和效率意味着人工智能危机将来得迅速而猛烈(Danielsson 和 Uthemann 2024)。以前需要几天甚至几周才能解决的问题,现在可能只需要几分钟或几小时。
政策选择
在人工智能驱动的市场环境下,传统的预防和缓解金融危机的机制可能不再奏效。此外,如果当局似乎没有准备好应对人工智能引发的冲击,这本身就可能使危机更有可能发生。
当局需要具备五项关键能力来有效应对人工智能:
培养内部人工智能专业知识并建立或收购自己的人工智能系统。这对于了解人工智能、发现新兴风险和快速应对市场混乱至关重要。
将人工智能作为金融稳定部门的核心职能,而不是将人工智能影响分析放在统计或 IT 部门。
获得能够直接与金融机构的人工智能引擎交互的人工智能系统。私营部门的金融业务现在已实现自动化。这些人工智能到人工智能的 API 链接可以对微观监管进行基准测试,更快地检测压力,并更透明地洞察自动化决策。
建立自动触发的流动性工具。由于下一次危机来得如此之快,银行人工智能可能在银行首席执行官拿起电话接听央行行长的电话之前就采取行动了。现有的传统流动性工具可能太慢,因此有必要自动触发流动性工具。
将关键的人工智能功能外包给第三方供应商。这将弥补当局无法在内部开发必要技术能力所造成的差距。然而,外包会带来管辖权和集中度风险,并可能妨碍当局工作人员积累必要的人工智能技能。
结论
人工智能将为金融系统带来巨大好处——提高效率、改善风险评估、降低消费者成本。但它也带来了不容忽视的新稳定性风险。监管框架需要重新思考,风险管理工具必须调整,当局必须准备好按照人工智能规定的步伐采取行动。
当局如何应对将对下一次人工智能危机的可能性和严重程度产生重大影响。
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
关注我们,一起探索AWM!
2025-02-01
2025-01-15
2024-12-14
热门跟贴