霍金的预言

著名科学家史提芬·霍金(Stephen Hawking)2016年5月,在BBC的节目《The BigQuestions》的一次采访中,曾建议人类应该在将来的200年内移民到另外一个星球,因为:

(1)地球资源将无法维持不断增加的人口;

(2)人工智能可能让机器有能力控制人类。

当然,这都是我们人类不能接受的事情。

先说说人口问题。图1是联合国网站上对过去一万多年世界总人口的统计。最近两千年世界人口的增速令人担忧。如果不予以限制,是值得忧虑的。因为世界粮食和生活空间是有限的,不可能支撑无限的人口增长。如果不予以管制,地球养不起那么多人。根据联合国的统计,近两年世界人口每年大约增加0.8%。这个数字看起来似乎并不可怕。但是如果以后每年真的都增长0.8%,200年后,到2225年,世界人口会是现在人口的4.92倍,达到(1+0.008)200×80=4.92×80=394(亿人)。以目前世界的情况看,这个地球大概养不起394亿人!纯粹从统计理论看,霍金的第一个忧虑似乎是可信的。

但是,事实并非如此。世界人口增速正在减弱。从20年前的大约1.20%减少到现在的大约0.8%。有些国家,例如中国和韩国,目前的人口问题不是增加,是如何避免太快地减少。当然,人口快速增加和减少都可能引起很大的社会问题。当前大家预测世界人口将在在2084年达到103亿人的峰值之后开始减少。所以人口数目不是一个问题。而且,生不生孩子是人类自己的决定,当人口过多引起社会问题的时候自然就会开始减少。

图1 过去12,000年地球上总人口数目

(取材自联合国网页)

霍金的第二个忧虑:人工智能可能让机器有能力控制人类。

这正是我们目前要面对的问题。近来人工智能的快速发展的确引发许多人的担忧。人工智能是指通过模拟人类的智能来执行人类任务的计算机系统。人工智能目前分为三级:(1)狭义人工智能(Narrow Intelligence,也叫弱人工智能,简称ANI或NI);(2)广义人工智能(Artificial General Intelligence,简称AGI,也叫通用人工智能或强人工智能);(3)超级人工智能(Artificial Super-Intelligence,简称ASI)。

狭义人工智能(ANI)只能在预设的范围内执行任务,无法超出其设计的范围。直到目前,我们能使用的,例如自动驾驶、下棋,AlphaGo或AlphaFold、人脸识别、语言翻译、手机银行等都是狭义人工智能(ANI)。自动驾驶的人工智能只能驾驶车辆,它不能被用来下棋或者读莎士比亚,也不能帮你烧饭。Chat GPT和Deep Seek等都是狭义人工智能,而且它们还大部分是开环的(Open Looped),就是说,它们不会从被使用中得到进步。有点像我们出版的书籍一样,每本书都有一个对应的“出版日期”。虽然我们可以不断的更新,但这些更新是人为的,不是自动的。例如ChatGPT会告诉你:“我的知识截至2023年9月,之后的事件我无法提供信息。”这样,用户就能意识到可能存在的信息滞后性。就是说,从ChatGPT得出的资料,不一定是及时的。

通用人工智能(Artificial General Intelligence,简称AGI)是理论上能够理解、学习和执行与人类同等复杂任务的人工智能。通用人工智能的目标是让机器具有自我意识、情感和自主决策能力。就是说,到那时候,机器就能做人类能做的所有事情!而且,通用人工智能是闭环的(Close Looped),它就像人类一样,可以从经验中学习而改进自己。简单的说,具有通用人工智能的机器从很多角度说就是一个机器形式的“人”!虽然不一定是人的样子,但可以自觉式的完成所有人能实行的任务。不过,目前我们还没有成功做到可用的通用人工智能!当然许多科技专家正在为此努力。

超级人工智能(Artificial Super Intelligence,简称ASI)是比人类智能更高级的人工智能。一种能够在几乎所有领域——包括创造力、社会智慧、情感理解和科学研究等都超过人类所有智慧的人工智能系统。人工智能先驱I.J.Good(I.J.古德)在1956年预言:在通用人工智能(AGI)具备了足够的通用推理、学习能力和适应性时,它可能会快速自我改进,并超过人类的智能水平。这一过程被称为“智能爆炸”(Intelligence explosion),即AI在某一时刻可能突然开始加速自我提升,快速超越人类智慧。这个不难想象,因为计算机的速度会越来越快,人类无法比拟。不过,目前ASI还只是一个构想,没有任何内容!

目前人工智能的实例

虽然目前的通用人工智能和超级人工智能还没有成形,弱人工智能已经有很多用途,如自动驾驶(Autonomous driving)。自动驾驶是因为我们把智能灌输到机器,让机器根据我们的规则学习驾驶车辆。这里,最重要的一点是,机器是根据我们人类的规则驾驶车辆。自动驾驶是狭义人工智能,它不能改变我们已定的规则。可以说,我们还是间接地控制着驾驭的行为。但是自动驾驶是闭环运作的。就是说它不像ChatGPT,它可以从经验中学习而改进自己。

又例如我们建立智慧城市,就必须有智慧交通Intelligent Transportation。车路云(Vehicle to Everything,简称V2X)和自动驾驶等都是智慧交通不可或缺的。还有自主泊车(Automated Valet Parking, 简称AVP),使泊车更方便!大家都有找不到停车位的经验。如果我们的汽车能自己找到停车位和自动停泊,将是多难得的舒适和方便!这些核心技术都是人工智能,狭义人工智能(ANI)。

“车路云”还可以帮助避免交通事故。例如美国佛州阳光大道桥(Sunshine Skyway, Florida, USA)的事故:旧的阳光大道桥于1954年9月6日通车。1980年5月9日,货轮Summit Venture在大雾中撞塌了大桥的边墩,导致大桥倒塌(图2)。由于在桥上后来的车辆不知道前面的桥已经坍塌,还继续向前行驶,结果6部私家车、一部大货车和一部巴士都跌到水里,造成35人死亡的悲剧。如果有车路云人工智能,后面的车大概率会得到预警,不会掉到水里。

图2 美国阳光大道桥事故前后情况

不久前,广东梅大高速塌方,也发生了相似的悲剧。

通用人工智能的问题

上面指出,通用人工智能(Artificial General Intelligence, 简称AGI)是理论上能够理解、学习和执行与人类同等复杂任务的人工智能。通用人工智能的目标是让机器具有自我意识、情感和自主决策能力。就是说,到那时候,机器就能做所有人类能做的事情!简单地说,具有通用人工智能的机器从很多角度说就是一个机器形式的“人”,虽然不一定是人的样子,但可以自觉式的完成所有人的任务。

这就引起三个大问题:

(1)如果未来的人工智能能够自主思考并做出道德决策,那么它是否应当拥有类似人类的权利和责任?但是,我们如何问责一台机器?

(2)我们已经知道,弱人工智能能够取代很多工人的工作,会导致很多工人失业,那么,根据定义,通用人工智能可以做所有人类能做的工作,它是否会把所有人的工作都取代了?这样,人是否就变成是这个世界上多余的物种了?

(3)当人工智能让机器有足够的能力时,尤其当超级人工智能(ASI)真的能实现的时候,它是否可能把人类灭掉?如果在这个世界上,通用人工智能可以替代人自主运作,人在这个宇宙还有什么生存的地位?

还好,目前广义人工智能还处于概念阶段,还未能真正实现。就是说,我们还有讨论和应对这个问题的机会。但是,时间无多了。我们必须认真讨论这个问题,并且找到答案!

人是世界上最具智慧的动物,但是,每一个人的智慧仍然有限。因为人的寿命是有限的,所以一个人一生中能积聚的智识也是有限的。但是,如果我们能够把许多人的智识收集存储起来,与时俱进,那就会是无限的。

机器是一个没有生命的载体。它本身是没有智能的。一台机器如果有智能,这些智能必须是人类付予的。我们必须认识到,人的寿命是有限的,机器的寿命可以是无限的。人每天都需要一定的时间休息、睡觉。机器可以24小时不停的学习和工作。所以,总有一天机器的智慧和能力会远远超过人类。那时候,人类就会被机器支配了!我们人类是不是就可能被淘汰了?

著名数学家丘成桐院士认为:“人工智能不可能取代数学家的思考。创造力是人工智能不能做到的”。当然,如果有了人工智能的机器没有创造的能力,它就永远无法变得比人类更聪明!但我认为,他说的只是弱人工智能(Narrow AI)。通用人工智能(AGI) 要聪明得多!他比较乐观,但是,他毕竟不是人工智能专家。

被誉为人工智能教父的杰弗里·辛顿(Geoffrey Hinton)去年获得了诺贝尔奖。他去年5月离开工作了十年的谷歌公司(Google),原因是他对谷歌人工智能技术的发展越来越担忧,离开了谷歌他才有更大的说话自由。

他比较悲观,但是,他是人工智能专家。是否更可信?他的忧虑会不会就是像我们古语说的“养虎为患”?

当然,通用人工智能还远远没有成形。

其实,早期的人工智能先驱对人工智能的发展都很乐观。例如:

1965年,赫伯特·亚历山大·西蒙(Herbert Alexander Simon)在他的《人类自动化的形态与管理》(The Shape of Automation for Men and Management)一书中预测:“在20年内,机器将能够完成人类能做的任何工作。”

现在是2024年。已经过去快60年了,他这个预言还远远没有实现!

另一位人工智能专家约翰·麦卡锡(John McCarthy)1956年预言:“通用人工智能 (AGI)将在50年内成为现实。”

这是他在达特茅斯人工智能会议(Dartmouth Conference)后讨论的预言。现在是2024。已经过去快70年了,他这个预言也还远远没实现!

又如:在1970年,《Life》杂志援引马文·明斯基(Marvin Minsky)的话说:“3~8年内,我们将拥有一台具有普通人一般智力的机器。我指的是一台能够阅读莎士比亚、给汽车加油、搞办公室政治、讲笑话、会打架的机器。”

54年过去了,这个预言也没能完全实现!如果我们不考虑效果,能够阅读莎士比亚、给汽车加油、能讲笑话的机器其实都可以实现了。这些都是弱人工智能。但是,“搞办公室政治”还做不到。因为搞政治必须随兴互动,它属于“通用人工智能”。

人类的文明和进步

在此,我们回顾一下人类是如何发展成今天这个情况的。

人类在进化过程中创造了文明。野兽没有。所以,野兽今天的生活和十万年前并没有分别;因为有了文明,人类今天的生活与十万年前的生活就完全不同了。

什么是文明?韦氏大词典(Webster Dictionary)对“文明”的定义是:“科学与技术为人类提供的现代的舒适与便利”(Modern comforts and conveniences provided by science and technology)。让人能够容易得到想要的东西和容易做到要做的事情,就是便利。让人能够安逸亨受生活,就是舒适!今天我们已经有的汽车、智能手机、互联网、高铁、楼房建筑等等各项技术创新提供的都是舒适和便利。

例如交通。最早,人要从一个地方去到另一个地方,只能靠走路。后来,学会了骑牛和骑马,然后有牛车和马车;之后有汽车和火车;再发展到船舶和飞机。每一次的进步,都给人类提供更多的舒适和便利。到现在为止,这些文明产物都是由 “人”控制的。马车有马夫,汽车有驾驶员,火车有乘务员,飞机有飞行员。而现在有了自动驾驶,我们把许多“驾驶行为”的“执行权”都交给机器了,换来的是更多的舒适和方便。

在整个文明发展过程中,我们一直这样前进,用执行权换取方便和舒适。人工智能的出现,可能就是一个临界点。越过了这个临界点,人类可能会把所有的执行权都交出去了,就是说,有可能我们不再能控制这个世界了。当通用人工智研发成功的时候,人类就必须把执行权和机器分享,到超级人工智能研发成功的时候,我们人类可能不再有对这个世界的任何事物的执行权了。

那人类怎么办

我认为:为了不被机器控制,人类要有能力与机器竞争,有两个方法:

(1)控制机器智能的发展。

(2)与机器竞争:人类必须俱备比机器更完整的智能。

第一个方法:人工智能毕竟是人类创造的,作为创造者,人应该有能力控制人工智能的发展。在这方面,各国都有一定的对人工智能的规范。

中国在2021年发布的《新一代人工智能伦理规范》,强调了以下几个重点:“ 以人为本,公平正义,透明可控,安全与可持续,责任与问责机制。”

这些原则旨在为人工智能的发展提供伦理指导,以促进技术与社会的和谐发展。其他国家也有类似的规范。

从经验看,这些规范并不一定完全有效。世界不是早就有个《核不扩散条约》吗?现在至少有9个国家有核武器了。而且,核武器的管控还比较容易,因为造核武器需要很多元材料和机械,容易被发现和管控。人工智能的研发不需要多少元材料。不容易被发现!

我们还必须认识到,科学家对大自然真相的热爱是无限的,但是科学家对大自然的真相的好坏通常并不重视。通用人工智能对人类的威胁可能不会是科学家最重视的事情。这就会导致不可预见的后果。

第二个方法:建立能与机器竞争的智能,人类就必须俱备比机器更强的智能!但是,人类受到生理和寿命的限制,很难与机器竞争。要有能力与机器竞争,我们必须想办法弥补这些生理上的寿命与智力缺陷。所以,如果人类要胜过机器,或者可以从这两点着手!

据说,人脑大概有1.0PB到2.5PB的内存量。

(1PB=Petabyte(PB)=1024TB=1,048,576GB=1,125,899,906,842,624 Bytes)

我们今日的手机通常有256GB的存量。就是说,人脑的存量等于4000~10000个这样的手机的内存量。将来有一天,机器人一定能够超过这个容量!内存量大表示可以存储更多的知识。所以,如何增加人脑的内存量是一个重点!

除了内存量,还要考虑计算速度。

寿命是另一个问题。人类寿命是有限的,机器的寿命可以是无限的。人类一生能吸收的知识也是有限的。这也是机器可能优越于人类的一个原因,也是我们要解决的问题。

我不是人工智能专家。但是,我们都可以参与幻想一下。

现在,研究脑机接口(Brain-Computer Interface,简称BCI)是相当热门的事情。这也是马斯克先生在热心研究的一样东西。脑机接口(BCI)‌是一种高级的人机交流方式,是让人类可以通过大脑信号直接控制外部设备。现在已经可以让一些残疾人士恢复使用功能。

目前,脑机接口分为“植入式”“半植入式”和“非植入式”三大类,都还处于相当初步研究阶段。

如果脑机接口研发成功,人类就可以通过大脑信号,直接控制外部设施,包括与电脑沟通。

进一步,当人脑能与电脑无缝连接时,电脑就会是我们人脑的延伸。

更重要的是,到人脑能够与电脑和机器连接起来时,学习知识就不再需要通过书本、视频等媒介,也不需要花费大量的时间,只需直接将知识传输到大脑即可。

图3 脑机接口: 左,植入式;右,非植入式

如果有一天,脑机接口能够传递知识,我们就可以找其他人替我们读书,然后把读书的心得直接转载到我们的大脑。到时候,我们知识的多少,只取决于我们大脑的内存容量!而且,我们也可以借助外存的辅助,像今天的U盘一样。当然也可以通过网络与“云”连接,像车路云(V2X)一样。

如果有一天,脑机接口能够传递知识。知识就可能变成可以买卖了。那么,到时候,我们或许可以随爱好、买半个莎士比亚和一个爱因斯坦,上传到脑子里。立刻成了半个文学家加上一个科学家!

再进一步:如果脑机接口能够传递知识。我们就可以把我们大脑里全部知识下载到机器里,这个机器就会变成“第二个我”。这“第二个我”可以是一个“全机器人”,没有肉体,全是机器。但是,意识上仍然是“我”。到时候,这个“全机器的我”就可以在火星或其他极端环境下生存!因为它已经没有生物元素了。如果这个事情能实现,人类就有永生的可能了。

但是,这些“全机器人”还可以被定义为“人”吗?

我再总结一下:

目前我们已经能够实际应用的都是弱人工智能。例如Siri(苹果),Google Translate(谷歌翻译),AlphaGo,AlphaFold,Deep Seek, ChatGPT,自动驾驶技术等,都是弱人工智能。这类人工智能只能在预设的范围内执行任务,无法超出其设计的范围,并不危险。

通用人工智能要让机器能够有人类一样或更高的智力。这是有能力和人类竞争什至消灭人类的智能,这个可能很危险。超级人工智能就更危险了。

所以,我要提问一下,我们有发展通用人工智能的必要吗?创造一个可能灭绝人类的机器是人类的正当目标吗?

本文刊载 / 《桥梁》杂志

2025年 第1期 总第123期

作者 / 邓文中

作者系林同棪国际(中国)董事长、中国工程院外籍院士

编辑 / 陈晨

美编 / 赵雯

审校 / 李天颖 王硕 廖玲

联系人:李天颖

联系邮箱:xmt@bridgecn.org

联系电话:13552183635

稿件投递

联系人:王硕

联系邮箱:xmt@bridgecn.org

联系电话:13910070564

联系人:黎伯阳

联系邮箱:xmt@bridgecn.org

联系电话:010-64282959-503

联系人:穆玉

联系邮箱:xmt@bridgecn.org

联系电话:18910480043

喜欢请转发吧!

原创稿件,转载请标明出处

点个喜欢吧