基辛格谈人工智能

不要等到危机来临才开始重视

点击观看↓

AI是否安全?AI该不该被监管?

电影《黑客帝国》中,人类活在由 AI 创造的 “矩阵” 虚拟程序,被 AI 操控感官、思想,完全成为了生物电池。在《终结者 2:审判日》里,天网作为高度发达的人工智能系统,获得自我意识后判定人类是威胁,进而发动核战争,企图灭绝人类……

关于人工智能的安全问题一直是人们讨论的热点。

在美国,拜登于2023年就签署了AI限制的相关行政令,科技公司需要在开发大型 AI 模型时进行测试,并将结果上报给联邦政府以评估风险,还让 NIST 指导确保 AI 模型无种族或性别等方面的偏见。

但这一行政令也许会随着1月20号特朗普的登台被废除。特朗普及其支持者们认为,这些限制不仅会拖慢 AI 发展,而且可能会泄露公司的商业机密。

在《人工智能时代与人类未来》这本书中,著名外交家、美国前国务卿亨利·基辛格、谷歌前首席执行官埃里克·施密特和麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔三人就对人工智能的安全问题进行了宏观的哲理性思考。

01.

人工智能时代的网络战争

自有记载的人类历史起,安全始终是一个有组织的社会追求的最低目标。在每一个时代,寻求安全的社会都试图将技术进步转化为日益有效的方法,用以监视威胁,练兵备战,施影响于国界之外,战时则用于加强军事力量以取得胜利。对最早期的有组织社会来说,冶金、防御工事、战马蓄养和造船等方面的进步往往具有决定性的意义。到了近代早期,火器枪炮、海军舰船、航海工具和技术方面的创新也发挥了类似的作用。

随着力量的增强,主要大国之间会相互衡量,以评估哪一方会在冲突中获胜,取得这样的胜利会带来什么风险和损失,开战有什么正当的理由,以及另一个大国及其军事力量介入冲突会对结果产生什么影响。不同国家的战力、目标和战略至少在理论上被设定为一种平衡,或者说是一种力量的均衡。

在过去的一个世纪里,对手段和目的的战略调整已然出现了脱节。用于追求安全的技术层出不穷,破坏性也越来越大,而运用这些技术实现既定目标的战略却变得越来越难以捉摸。在当今时代,网络和人工智能的出现又为这些战略计算增加了超乎寻常的复杂性和抽象性。

在冷战结束后的今天,主要大国和其他国家都利用网络能力增强了本国的武器库,这些网络能力的效用主要源自其不透明性和可否认性,在某些情况下,也源自对其在散播虚假信息、收集情报、蓄意破坏和传统冲突的模糊边界上的运用——这构成了种种尚无公认理论教条的战略。与此同时,每一次进步都伴随着新的弱点被揭露。

↑《银翼杀手》剧照

人工智能时代可能使现代战略之谜更趋复杂化,这并非人类本意,也许还完全超出人类的理解。即使各国不广泛部署所谓的致命自主武器(即经过训练和授权可以自主选择目标,并在没有进一步人类授权的情况下进行攻击的自动或半自动人工智能武器),人工智能仍有可能增强常规武器、核武器和网络能力,从而使对手之间的安全关系更加难以预测和维护,冲突更加难以限制。

没有哪个大国可以忽视人工智能的安全维度。一场争夺人工智能战略优势的竞赛已经开始,尤其是在美国和中国之间,当然还有俄罗斯。随着对他国正在获得某些人工智能能力的认知或猜疑日益蔓延,将会有更多国家寻求获得这些能力。而一旦被引入,这能力就会快速扩散。虽然创造一种复杂的人工智能需要大量的算力,但对其进行增殖扩散或使用它通常并不需要。

解决这些复杂问题的办法既不是陷入绝望,也不是缴械投降。核技术、网络技术和人工智能技术已经存在,其中每一项技术都将不可避免地在战略中发挥作用。我们已不可能退回到这些技术“未被发明”的时代。如果美国及其盟友因这些能力可能产生的影响而畏缩不前,结果不会是一个更和平的世界。相反,那将是一个不太平衡的世界,身处其中的各国会竞相发展和使用最强大的战略能力,而不考虑民主责任和国际平衡。

今后几十年,我们需要实现一种力量平衡,这种平衡既要考虑到网络冲突和大规模虚假信息传播等无形因素,也要考虑到由人工智能辅助的战争的独特属性。残酷的现实迫使人们认识到,即使是在彼此竞争中,人工智能领域的对手们也应致力于限制极具破坏性、不稳定性和不可预测性的人工智能能力的开发和使用。在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。

02.

一个社会的数字能力越强

这个社会就变得越脆弱

↑《银翼杀手》剧照

纵观历史,一个国家的政治影响力往往与其军事力量和战略能力大致匹配,这是一种即使主要通过施加隐性威胁也会对其他社会造成破坏的能力。然而,基于这种力量权衡的均势不是静态的或自我维持的。相反,它首先依赖于各方就这一力量的构成要素及其使用的合法界限达成共识。其次,维持均势需要体系内所有成员,尤其是对手,就各个国家的相对能力、意图和侵略的后果进行一致的评估。最后,保持均势需要一个实际的、公认的平衡。当体系中的一方以一种与其他成员并不成比例的方式增加自身力量时,体系将通过组织对抗力量或者通过适应新的现实来设法做出调整。当均势的权衡变得不确定时,或者当各国对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最大。

在当今时代,这些权衡的抽象性更进一步。带来这种转变的原因之一是所谓的网络武器,这类武器涉及军用和民用两个领域,因此其作为武器的地位是模糊的。在某些情况下,网络武器在行使和增强军事力量方面的效用主要源于其使用者未披露其存在或未承认其全部能力。传统上,冲突各方都不难认识到发生了交战,或者认识到交战各方是谁。对手间会计算对方的战力,并评估他们部署武器的速度。可是这些在传统战场上颠扑不破的道理却不能直接套用到网络领域。

常规武器和核武器存在于物理空间中,在那里,它们的部署可以被察觉,它们的能力至少可以被粗略计算出来。相比之下,网络武器的效用很大一部分来自其不透明性;若被公之于众,它们的威力自然有所减损。这些武器利用之前未曾披露的软件漏洞,在未经授权用户许可或知情的情况下侵入网络或系统。在“分布式拒绝服务”(DDoS)攻击(如对通信系统的攻击)的突发事件中,攻击者可能会使用一大堆看似有效的信息请求来压垮系统,使系统无法正常使用。在这种情况下,攻击的真实来源可能被掩盖,使人难以或无法(至少在当时)确定攻击者。即使是最著名的网络工业破坏事件之一——震网(Stuxnet)病毒破坏了伊朗核项目中的制造控制计算机,也没有任何政府对此事做过正式承认。

常规武器和核武器可以相对精确地瞄准目标,道德和法律要求它们瞄准的对象只能是军事力量和设施。而网络武器可以广泛地影响计算和通信系统,往往可对民用系统造成特别有力的打击。网络武器也可以被其他行为体基于其他目的而进行吸纳、修改和重新部署。这使得网络武器在某些方面类似于生物和化学武器,其影响可以非预期和未知的方式传播。在许多情况下,网络武器影响的是大范围的人类社会,而不仅仅是战场上的特定目标。

↑《黑客帝国》剧照

网络武器的这些用途,使得网络军备控制难以被概念化或被推行。核军备控制的谈判人员可以公开披露或描述一类核弹头,而不必否认该武器的功能。网络军备控制谈判人员(目前尚不存在)则需要解决以下悖论:一旦对网络武器的威力进行讨论,可能就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)。

我们所处的数字时代的一个核心悖论是:一个社会的数字能力越强,这个社会就变得越脆弱。计算机、通信系统、金融市场、大学、医院、航空公司和公共交通系统,甚至民主政治的机制,所涉及的系统在不同程度上都容易受到网络操纵或攻击。随着发达经济体将数字指挥和控制系统整合到发电厂和电网中,将政府项目转移到大型服务器和云系统中,并将数据转誊到电子账簿中,它们在网络攻击面前的脆弱性也成倍增加。这些行为提供了更丰富的目标集合,因此仅仅一次成功的攻击就可能造成实质性的破坏。与此相对,如果发生数字破坏的情况,低技术国家、恐怖组织甚至个人攻击者可能会认为他们承受的损失相对要小得多。

要在最具破坏性的能力上实现相互制约,绝不能等到悲剧发生再去亡羊补牢。当人类开始在创造新的、不断演化的、拥有智能的武器方面展开竞争时,历史不会原谅任何对此设限的失败。在人工智能时代,对国家优势的持久追求,仍须以捍卫人类伦理为前提。

亨利·基辛格&埃里克·施密特&丹尼尔·胡腾洛赫尔|著

本文来自《人工智能时代与人类未来》

文章仅用于分享交流不作商业用途

如有侵权请联系后台删除

《人工智能时代与人类未来》

点击订购↓

相关优质视频↓

独家课程丨哲学100问

0基础西方哲学史(从古希腊到后现代)

上图扫码 - 立即购课(APP附文稿)

逻辑图领取,加助手微信号:zhexue100zhushou

阅读全文订购《哲学100问》(完整版)