打开网易新闻 查看精彩图片

导语:

“人工智能”还是“人工智残”?如何重塑人类理性?

本文提出对“人工智残”现象的思考。在人工智能时代,由于广泛和毫无节制地使用(无论是主动使用还是被动使用)人工智能相关的工具(尤其是基于互联网的各种社交媒体)所导致的人类自我智力伤害。尤其是在当下高科技发展到人工智能的阶段,随着技术“赋权”能量愈加巨大,赋权却呈现出绝对的“不平等”和“不均衡”——不仅表现在一国之内,更表现在国家之间。

郑永年教授发出警告:一种可以称之为“牧民社会”的治理结构正在快速形成和崛起——人工智能对人类最大的冲击是智慧的不平等,倘若人类利用人工智能进行自我伤害的趋势继续下去,最终的结果必然是重返“奴隶式依赖”。他指出,自从人类有意识地去发明和创造技术以来,一个总的趋势是:机器越来越像人,而人越来越像机器——因为人是根据自己的人性来塑造机器的,机器便有了最终征服和奴役人类的机会。今天,人工智能已经有能力扮演或者已经在扮演着“牧羊犬”的角色。倘若这一趋势不得到遏制和管控,人类恐将成为“会说话的羊群”。

什么是“人工智残”?

本文要讨论的AI不是人们日常所说的“人工智能”(artificial intelligence), 而是“人工智残”(artificial ignorance)。“人工智残”指的是一种今天越来越普遍的现象:在人工智能时代,由于广泛和毫无节制地使用(无论是主动使用还是被动使用)人工智能相关的工具(尤其是基于互联网的各种社交媒体)所导致的人类自我智力伤害。

它并非日常所说的“智障”,很多“智障”具有先天性,具有不可避免性质,人们对这部分不幸的同胞抱有同情心,也在不断寻找治疗智障的方法。

相比之下,“智残”则是因为不当使用工具所造成的人为伤害。尽管讨论这一问题有些敏感,但鉴于其快速发展的势头及其对人类智力的巨大负面影响,人们还是需要直面这个问题,找到有效的纠正方法。“人工智残”这一问题很是复杂,在此提出一些初步的思考和讨论。

题目借用的是英国作家奥尔德斯·赫胥黎(Aldous Huxley)所著《美丽新世界》(Brave New World)的概念。笔者借用这个概念出自三个理由:

第一,尽管人工智能及其相关的工具已经迅速成为第四次工业革命的核心,各国也在千方百计地发展和使用这一技术,以期通过在这一技术领域占据主导地位来主导下一波工业革命,但是对人类社会来说,这一技术还是一个新生事物,其给人类所带来的无疑是一个“新世界”。

第二,赫胥黎在《美丽新世界》一书中,探讨的是技术应用对人类社会的影响,包括正面和负面影响。新技术的出现大多是人类理性的结果,其目的是影响人类社会。对人类来说,既要受惠于技术的进步,也要减少甚至避免技术对人类造成的负面影响。

第三,更为重要的是笔者想借讨论人工智能来更新和修正一下笔者对这个问题的看法。笔者一直对技术和社会之间的关系抱有浓厚的兴趣,多年来一直在观察和研究技术对社会变迁的影响。

很多年前,作者出版了题为 一书,结合中国的案例,探 讨了互联网对国家和社会的影响。

当时的互联网还处于博客时代,但已经对人类社会的方方面面产生了深刻的影响。尽管当时的互联网对国家和社会的影响也表现为正负两面,但笔者的结论比较乐观,认为作为技术工具的互联网具有“普遍赋权”的功能,既赋能政府,也赋能社会的各个群体。

但是,至少就今天的状况来说,需要修正“普遍赋权”这一观点了。高科技发展到人工智能的阶段,其赋权的能量的确越来越巨大,但赋权表现为绝对的不平等和不均衡,不仅表现在一国之内,更表现在国家之间。

在一国之内,正如下文会分析到的,人工智能对国家、对公司、对个人的赋能极度失衡。对国家间来说,人工智能分布在少数几个大国,大多数国家并没有能力拥有人工智能。

迄今,人们对人工智能所造成的不平等主要聚焦在就业、收入、技术可得性等方面。但笔者认为,虽然这些不平等不仅存在,而且还会加剧,甚至会成为人类挥之不去的噩梦,但从目前的发展趋势而言,人工智能及其相关工具所产生的最大也最具有危害性的不平等是人类智慧上的不平等。

打开网易新闻 查看精彩图片

近日,美国多个码头的数万名工人举行罢工,反对港口机械设备自动化。

这种智力上的不平等并不是人们日常所说的“技术不可得性”造成的。在研究高科技对社会影响的文献中,一种普遍的观点是,那些能够得到这种高科技的社会群体可以享受高科技带来的好处,而那些不能够得到这种高科技的社会群体则难以得到好处。

但是,就人工智能及其工具对人类的智力的影响来说,结局是恰恰相反的,即是说,这种高科技越具有可得性,使用越是频繁,使用者的智力受到的损害就越大。

“人工智残”是如何形成的?

我们至少可以从两种结构性因素来分析“人工智残”是如何形成的。

在第一个层面,我们可以对人工智能时代的高科技所呈现出来的结构性因素进行分析,研究这些看似互相矛盾的因素对社会群体所能构成的伤害。

简单地说,人工智能时代的高科技呈现四个特性。

1.人工智能时代的高科技呈现四个特性

第一,能力的高度集中性(highly concentrated)。人工智能的技术能力是高度集中的,集中在少数几个大国的几家大公司。世界范围内看,中美两国掌握了大部分人工智能技术能力,虽然其他国家也拥有一些,但无法和中美相比。再者,就中美两国来说,美国拥有更多的技术能力。

今天,尽管美国公司一直在宣扬中国在这个领域对美国公司构成了巨大的竞争压力,但是无论从理论还是经验层面看,人工智能领域有意义的竞争都发生在美国的几家大公司之间,而非中美之间。再进一步,即使在中美两国内部,人工智能技术的区域分布也是少数几个地区。

在美国,人工智能技术大多分布在两个区域,一是西边从加州硅谷到得克萨斯的狭长地带,二是东北部的波士顿—纽约区域。在中国,主要分布在三个区域,一是粤港澳大湾区(香港—深圳—广州),二是长三角地区(苏州—上海—杭州),三是北京地区(主要是科研)。

近代以来,很少出现技术集中性如此之高的情况。西方发达国家对基于传统技术之上的产业反垄断已经有了一套成熟的方法,一般通过分解一个企业以防止其取得垄断地位,从而为创新和新兴企业的产生创造制度条件。但是,对高科技企业如何进行反垄断,迄今依然是一个巨大的问号。

因为基于互联网产业的情况来看,如果拆分企业,那么就不那么符合信息产业的发展逻辑。从微软的反垄断案来看,现在基本上用“开放”替代传统的“分解”。但问题在于,这种“开放”替代的实际效果便是使得这些信息产业的公司变得更加庞大。

打开网易新闻 查看精彩图片

据报道,美国司法部和联邦贸易委员会已就对微软、Open AI等科技巨头开展反垄断调查达成协议。

就人工智能来说,美国尽管在这一领域被视为相当发达,但还没有任何联邦层面的监管体系来约束,只有一些没有多大约束力的总统行政命令。如果找不到有效的反垄断机制,那么这种集中度只会越来越高。

第二,管控的高度集权性(highly centralized)。就是说,管控人工智能使用能力的角色要不是各国政府,要不是各个大公司(即平台)。基于互联网之上的人工智能会影响国家间的关系,这里涉及两种相关但又不同的安全问题,一是技术本身和技术使用的安全问题(safety),二是国家间的安全问题(security),即一个国家对另一个国家是否构成威胁的问题。

基于对安全的需要,管控的高度集权性不可避免。这也是为什么互联网产生以来人们对“互联网主权”的讨论从来没有终止过。尽管互联网主权很难实现,但各国还是千方百计地去控制互联网,使其体现出一定程度的“主权性”。

再者,国家之间的互联互通仅仅通过一个国家一个接口或者几个接口的方式进行,这种关联方式也为高度集权性创造了技术条件。这种集权性也可以表现为公司形式。尽管在内部事务上,某些美国公司拥有了某种程度的对抗国家的权力,但在国际层面,公司便是国家的代理人,无论是主动的还是被动的。

第三,使用者的高度垄断性(highly monopolized)。如同前文所讨论的,人工智能的使用者无论是政府还是公司,都很容易趋向于高度垄断性。经验地看,即使使用者是个人,也呈现出高度垄断性质。无论在哪里,今天的互联网和社交媒体领域都被各个领域的大V(网红)或者大V所构成的小团体所垄断。

这些大V及其团体往往集聚和垄断了大部分资源,享有不相称的权力,包括物质意义上的和话语权意义上的。他们往往被视为是各个领域的“精英”,任何东西(不论是宗教、思想、价值观、谎言、谣言等等),一旦具有了“商用”价值(即只要有人信),他们便会趋之若鹜,毫无底线地追求流量,把某一事物的商用价值推到极端。

第四,使用者高度分散性(highly diffused)。使用者即最底端的互联网使用者。互联网可以说是迄今为止最具有民主性质的技术。因为人是会说话的动物,人们必须沟通。这也就是基于互联网之上的社交媒体今天如此普遍的一个原因。

但是,这种技术的可得性也导致了个人的“原子化”。哲学家汉娜·阿伦特(Hannah Arendt)曾经对极权体制下的个人“原子化”做过深刻的讨论。但是,今天的情况已经发生了巨大的变化。今天被视为高度“民主化”的互联网技术导致了个人的极端“原子化”。

在社交媒体中,人们是互联着,但又不是互联着的,因为他们之间并没有真正地沟通。在年轻群体中,很多人实际上已经失去了语言沟通能力,他们之间的沟通往往发生在一个人的拇指与另一个人的拇指之间。

更为重要的是,他们往往仅仅是“大V们”的商用对象,大V们对他们来说具有“邪教般”或者“鸦片般”的吸引力。在行为上,他们往往表现为现代版本的“乌合之众”,表现出从众、非理性、轻信、自我颂扬、自我愚昧等特征。

打开网易新闻 查看精彩图片

在瑞士日内瓦“人工智能造福人类全球峰会”上,一名参会者与仿真机器人索菲亚互动。图源:新华社

2.治理结构的高度等级化

人工智能的这种技术结构在很大程度上也决定了第二个层面的高度等级化,即治理结构的高度等级化。尽管社交媒体呈现出高度的扁平化,但实质上却愈发等级化,一种可以称之为“牧民社会”的治理结构正在快速形成和崛起。

自从人类有意识地去发明和创造技术以来,一个总的趋势是:机器越来越像人,而人越来越像机器。因为人是根据自己的人性来塑造机器的,机器便有了最终征服和奴役人类的机会。

实际上,世界不同的文明都有“牧民”的说法,西方的《圣经》讲“牧民”,中国的《管子》也讲“牧民”。这里的“牧民”指的是统治者对老百姓的统治,需要善待老百姓。正如意大利精英政治学派(莫斯卡、柏雷托等)所强调过的,任何社会(不管是民主的还是非民主的)都可以分为两个阶层,即统治者与被统治者,前者是精英,后者是老百姓。统治者——被统治者的治理结构便是牧民社会结构。

在《政党》(Political Parties)一书中,德国出生的意大利社会学家米切尔斯(Robert Michels)更是论证了即使是以追求民主为目标的政党或者表现为最民主形式的政党最终也逃避不了“寡头政治铁律”(The iron law of oligarchy)。

英国作家乔治·奥维尔(George Orwell)1949年出版的小说《一九八四》(Nineteen Eighty-Four)更是以丰富的想象力展示出“牧民”的可能结局。实际上,自从社交媒体产生以来,“1984社会”不再是小说中的想象,而是已经成为现实。而人工智能的出现又在加速促成人类社会从“1984社会”向“牧羊社会”转型。

警惕人工智能成为“牧羊人”

牧羊社会由三部分角色组成,即牧羊人、牧羊犬和羊群。

今天,就人工智能的发展水平来说,它已经有能力扮演或者已经在扮演着“牧羊犬”的角色。

马斯克在其星链达成第7000颗卫星部署后,在其X发文称,“星链现在构成所有现役地球(轨道)卫星的约2/3”。有能力思考的人们需要看到这一发展趋势背后的涵义。星链是一家私人公司,马斯克对其拥有绝对权力,并不具有政府的公共性。

打开网易新闻 查看精彩图片

SpaceX的“星链计划”将在2027年前将4.2万颗卫星送入低轨。

人工智能之所以能够扮演“牧羊犬”的角色,主要有几个原因。

第一是人工智能技术本身的快速进步。尽管人类已经在各个方面感受到了人工智能对社会所能造成的冲击,但人工智能依然处于快速发展过程之中,并且越来越像人类本身。

第二是人类自我愚昧进程的加快。对绝少数人来说,人工智能是智能,但对大多数人而言,人工智能会造成“人工智残”。这里尤其需要强调一个知识界的“异化”现象,即使近代以来知识界一直被视为是理性的最重要的来源,但如同其他领域,今天在知识和智慧领域也出现了“劣币驱逐良币”的现象。

随着追流量、反理性、说假话几乎成为全球性趋势,美国学者霍夫斯塔特(Richard Hufstadter)20世纪60年代的作品《美国生活中的反智主义》这几年在很多国家再次流行开来也就不难理解了。不过,应当指出的是,今天知识所面临挑战的严峻程度并非霍夫斯塔特的“反智主义”这一概念所能形容的。

在霍夫斯塔特那里,反智的主体是传统的宗教、政治、商业和教育体制等,但在今天,除了这些主体之外,知识界本身不仅也加入了反智浪潮,更是趋向于成为反智的主体。应当强调的是,在知识领域,“劣币驱逐良币”对“劣币”来说绝对不是好消息。

如本文前面所讨论的,迄今人们只关注人工智能所能造成的物质和制度层面的不平等,但实际上,人工智能对人类最大的冲击是智慧的不平等。倘若人类利用人工智能进行自我伤害的趋势继续下去,最终的结果必然是重返“奴隶式依赖”。

第三是人工智能在快速摧毁此前保障人类生活正常进行的所有体制。《纽约时报》最近(2024年9月5日)发表了一篇题为“对人工智能的痴迷可能导致民主的终结”的文章,文内指出,“随着技术使信息传播变得比以往任何时候都更容易,注意力成了一种稀缺资源,随之而来的注意力争夺战导致了有害信息泛滥。但争夺的战线正从注意力转向亲密关系。新的生成式人工智能不仅能生成文本、图像和视频,还能与我们直接交谈,假装人类”。实际情况可能更为糟糕。

在很大程度上,人工智能赋能的社交媒体已经导致美国传统民主形式的死亡。民主是否能够在人工智能赋能的社交媒体时代得以生存和发展是一个很大的问号。不仅仅是选举制度,所有其他制度都经历着严峻的考验。没有这些传统制度的保护,那么人类无疑处于一个极度“个体化”的原子状态。

人们可以说,旧制度的消亡是必然的。的确,任何制度必须与时俱进,否则就会消亡。人工智能已经显示出其强大的制度毁灭能力,但人们仍未发现其制度建设能力。在新制度确立遥遥无期的情况下,个人“原子化”的趋势正在加快和加剧。

因此,不难理解,今天社会的“牧民”特征越来越明显。尽管在社交媒体上,每一个人都可以说话,都可以各抒己见,但就其本质而言,社交媒体已经出现“会说话的羊群”的局面。人性最光辉的一面——“理性”逐渐消失了,但最丑陋的一面——“非理性”得到张扬,这在很大程度上已经威胁到人类共同体的生存和发展。

人工智能时代正在恶化两种不平等,即内部各社会阶层之间的不平等和国家之间的不平等。虽然很多国际组织和国家政府正在为如何解决这些不平等伤透脑筋,也在做不同的努力来控制和减少这些不平等,但社交媒体上则是另外一番景象。 各种基于社交媒体之上的群体张扬的是阶层阶级之间的仇恨、民族种族之间的仇恨和国家之间的仇恨,“商用民粹主义”“商用爱国主义”和“商用民族主义”情绪深入到社交媒体的各个角落。

更为严峻的是,对那些大V网红来说,他们这样做的目的是“商用”,即为了由流量产生的利益,但对很多他们的追随者(也就是“羊群”)来说,则是信仰,则是行动。仇官、仇富、仇(不同的)宗教、仇(不同的)价值和仇外国人已经从线上转到线下,造成了一些群体的生命危机。

技术进步对社会的影响是一个永恒的话题。必须明确意识到,技术的进步并不代表人类的进步。人类既要充分受惠于技术的进步,又要防止和减少技术对社会进步的负面影响。20世纪出现的反乌托邦三部曲,即前面引用的《美丽新世界》和《1984》,再加上前苏联的叶·扎米亚京的 《我们》,便是用文学方式向世人提出的“未来警告”。

但很可惜的是,这些作家所想象的情况早已不是“反乌托邦”,而是今天人们的日常生活了。更为严峻的是,在这些作家的作品中,他们只是强调了“政府”(掌权者)在监控和操纵社会过程中的作用,但今天的情况已经变得异常复杂,越来越多的角色,包括资本或者资本操纵的机构或者受利益驱动的大V网红等,都加入了“愚民”的过程。

在这种情形下,越来越多的个体和群体在不知不觉中实现着自我愚昧化。同样糟糕的是,今天已经没有了反乌托邦三部曲那样的思想者了。知识分子不仅已经失去了教育社会的责任,而纷纷加入了“愚民”的进程。

现在留给人们的问题只剩下:最终人工智能能否超越“牧羊犬”的角色而成为“牧羊人”?或者说,“牧羊人”最终反而被“牧羊犬”所主宰呢?

打开网易新闻 查看精彩图片

2023年11月2日,在英国布莱奇利园,一名参会者经过首届人工智能安全峰会的宣传展板。图源:新华社

如何阻止“人工智残”趋势?

倘若这种趋势不加以改变,人类的生存环境就会不断恶化。如何阻止人工智能时代“人工智残”的趋势继续?对世界各国来说,都是一个严峻的挑战。

从今天的情况看,有几个方面的事情是可以做的,也是必须做的。

1.要确立和强化政府的责任

对公众来说,需要重新认识政府在虚拟现实空间治理中的角色和责任。英国思想家托马斯·霍布斯于1651年出版的《利维坦》(Leviathan)为政府确立其在现实世界中的权力和权威提供了最强有力的哲学论证。正是确立了政府在现实世界的秩序之后,人类才逃离了原先的无政府状态。之后才会有洛克和密尔那样的自由主义者论述这一现实秩序可以是“不专制”的或者“自由的”。

今天的虚拟世界秩序或许也要经历一个先确立“利维坦”然后再民主化的过程。

对政府本身来说,需要对互联网非理性言论的蔓延采取一系列强化监管与反制措施,以确保网络环境的安全和稳定,正如今天一些政府已经在践行的那样。在监管中,完善法律法规体系是第一位的。政府需建立健全与非理性言论相关的法律法规,明确界定构成非理性言论、仇恨言论以及网络暴力的行为。同时,加大对现有法律的执行力度,确保相关法规能够有效应对网络中的不当言论,维护虚拟空间的社会秩序。

2.要确立和加大网络平台的责任

一方面是平台的自我责任。互联网平台作为信息传播的重要载体,必须承担起对内容的审核和管理责任。“企业的社会责任”概念或者目前流行的ESG(环境、社会和公司治理)概念也可以适用于平台。另一方面是政府对平台的监管。平台为利益驱使,如果没有外在的压力,很难确立自己的责任。鉴于平台中社会个体因为“原子化”而显得软弱不堪的局面,政府在监管平台上需要负起主要的责任。

实际上,今天的平台越来越趋向于“私人化”,而政府尽管也会犯错误,但无论是与平台还是与大V网红比较,政府呈现出来的公共性弥足珍贵。类似韩国平台所发生的侵犯女性人权的案例在全世界已经很是普遍。尽管政府经常被视为是“邪恶”的,但要对这些平台进行监管还必须诉诸政府。

各国政府需要制定明确的政策,要求平台建立完善的内容审核机制,及时删除或屏蔽非理性言论,并对传播恶劣内容的用户施加处罚。政府也可以通过评估和奖励机制,鼓励平台在内容治理方面表现优异。

3.政府和平台要加强网络监测与情报收集

政府可以通过各种技术手段,通过和平台合作建立高效的网络监测系统,实时跟踪和分析网络上非理性言论的动态。结合大数据和人工智能技术,能够迅速识别潜在的危害,及时采取应对措施,防止非理性言论的进一步传播和蔓延。

这里,政府尤其需要克制和避免人们所说的“选择性监管”倾向性。尽管任何政府都具有倾向性,尤其在意识形态日益高涨的今天,但如果政府不能避免“选择性监管”,那么就会对极端观点推波助澜,造成更大的恶果。政府需要在公众的“言论自由”和“极端言论”之间作出理性的判断,在保护“言论自由”的同时有效监控“极端言论”。

4.要重塑教育,重塑人类理性

更为重要的是,需要重塑教育,重塑人类理性。理性是人的现代性的本质,是教育的产物,来之不易。要防止“人工智残”的趋势继续,就必须通过激进的教育改革,重塑公众的理性思考能力。

打开网易新闻 查看精彩图片

2024年4月,教育部公布了首批18个“人工智能+高等教育”应用场景案例。

无论是政府还是社会组织,即刻可以做的包括:开展公共活动和媒体宣传,鼓励公众在面对信息时进行理性思考;通过引导公众学会分辨信息的真实性、客观性,减少对情绪化和片面言论的盲目接受;可以组织工作坊、讲座等形式的活动,培养公众的批判性思维能力,使他们能够独立判断非理性言论的影响与后果。

但从长远来说,各国所需要的是从根本上进行教育改革。人类已经进入人工智能时代,但各国的教育系统依然停留在前人工智能时代,因此教育与社会发展严重脱节。

正如教育在近代以来的三次工业革命进程中所发挥的关键作用,在人工智能时代,一个国家的未来,无论是内部发展还是其在国际舞台所处的位置,都取决于其教育改革。


‍‍

文章来源于公众号“大湾区评论”。

IPP专访|郑永年:中美围绕人工智能的对话,不要演变成新的“核武器谈判”

郑永年:中国面临的主要挑战是发展不足和监管过度|生物制药的创新与监管研讨会

郑永年教授最新力作——《中等技术陷阱:经济持续增长的关键挑战》

关于IPP

华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。

打开网易新闻 查看精彩图片