AI带来的变化,是否只是以往技术革命的重演?当智能体逐渐超越我们所熟知的算法边界,我们将如何定义未来那些真正可称之为“人工智能”(AI)的存在?而科幻小说,究竟是对未来的胡思乱想,还是精准无比的预言?

在一场South Park Commons(南方公园共享社区/SPC)组织的对谈中,不同的世界观碰撞融合。《雪崩》作者尼尔·斯蒂芬森(Neal Stephenson)、《手中纸,心中爱》作者刘宇昆(Ken Liu),与投资过SpaceX、Uber等公司的天使投资人赛安·班尼斯特(Cyan Banister)以及认知科学家与AI研究员约夏·巴赫(Joscha Bach)促膝而谈,探讨了叙事如何塑造现实,虚构如何成为路线图,以及创造者与梦想家如何跨越时空相互影响。

尼尔·斯蒂芬森:“意识和肉体是密不可分的,正因如此,我很难理解AI的存在——我无法想象一个意识或智能,它并不依赖于脆弱、有限、与我们相似的载体。”

▪ 约夏·巴赫:“恐怕现在没人可以判断AGI离我们还有多远。我至今没有看到过任何一个足以说服我的论述,无论是支持或者反对AGI的。”

▪ 赛安·班尼斯特:“在现阶段,理解我们自己的意识,比理解AI是否会产生意识,更为重要。”

刘宇昆:“早期的科幻小说描绘了技术如何改变社会;现在在AI时代,我们是否也将见证类似的变革?”

对谈嘉宾

尼尔·斯蒂芬森

Neal Stephenson

美国作家、游戏设计师和科技顾问

以创作科幻小说和历史小说而闻名。他的作品《雪崩》(Snow Crash)和《钻石时代》(The Diamond Age)描绘了丰富的未来社会和文化愿景,还预见了社交网络、纳米机器人和3D打印机等重大技术的发展。

约夏·巴赫

Joscha Bach

人工智能专家和认知科学家

致力于研究和开发人工智能系统,探索人类认知和智能的本质。他的核心研究观点包括:认知架构、情感与意识、通用人工智能(AGI)。

赛安·班尼斯特

Cyan Banister

知名风险投资家、South Park Commons(南方公园共享社区)的早期成员之一

她在风险投资领域有着丰富的经验,曾投资多家初创公司,尤其关注人工智能、区块链和金融科技等领域。她还积极参与社区活动,推动创新和创业文化的发展。SPC是一个社区驱动型风险投资组织,旨在支持早期创业者从“-1到0”的阶段开始探索和验证创业想法。

刘宇昆

Ken Liu

美籍华裔科幻作家、律师和翻译家

他的作品如《手中纸,心中爱》和《物哀》等多次获得雨果奖、星云奖等国际科幻文学奖项。他创作的“丝绸朋克”系列小说《蒲公英王朝》三部曲将中国历史文化与科幻元素巧妙结合,开创了独特的科幻风格。此外,他还翻译了刘慈欣的《三体》和郝景芳的《北京折叠》等中国科幻作品,推动了中西方科幻文学的交流。

联合主持人

克里斯蒂安·西比尔斯·贝尔纳德斯

Cristian Cibils Bernardes

Autograph的创始人兼首席执行官

他曾在谷歌担任软件工程师,致力于利用人工智能技术为人们创造更好的体验。Autograph是一家专注于体育和娱乐领域的非同质化代币(NFT)平台,旨在帮助运动员和名人创建和营销自己的数字收藏品。该公司成立于2021年,由美国国家橄榄球联盟(NFL)球星汤姆·布雷迪(Tom Brady)和其他创始人共同创立。

乔纳森·布雷布纳

Jonathan Brebner

South Park Commons(SPC)叙事专家

他擅长帮助成员、公司和社区打造并讲述引人入胜的故事。他曾在竞选政治、广告行业工作,还是一名独立作家和电影制作人。SPC是一个社区驱动型风险投资组织,旨在支持早期创业者从“-1到0”的阶段开始探索和验证创业想法。

AI:重现原子能时代

乔纳森·布雷布纳:尼尔·斯蒂芬森,你最新的小说Polostan(非官方译名《赤色马球》)设定在冷战时期。核能的逐步投入利用开启了原子能时代(the Atomic Era),这常给人一种技术爆炸的感觉。你在创作Polostan时,是否受到了当下某些社会现象的启发?以及,你觉得现在跟原子能时代有何不同?

尼尔·斯蒂芬森:在写这本书的时候,我并没有刻意地去思考这两个时代的相似之处,但既然你这样问了,那我也觉得它们确实挺像。

为了写作,我深入地了解了核技术史,它是如何一步步从核裂变的发现走到今天的。一切都始于核物理学家莉泽·迈特纳(Lise Meitner)的一次瑞典雪橇之行,旅行期间她试图解析了一座德国实验室于1938年发表的一组实验数据。

Lise Meitner(莉泽·迈特纳)是一位奥地利-瑞典裔物理学家,被誉为“原子弹之母”。她与奥托·哈恩共同发现了核裂变现象,为核能的开发奠定了基础,但诺贝尔奖却未授予她。她的工作推动了现代物理学的发展,尤其是在放射性研究和核反应领域。

她的发现最初仅在一小群物理学家中流传,随后爆发的二战中断了所有的研究。这个时间卡得不早不晚,核裂变的知识刚好还是可以渐渐扩散出去,让人们意识到它的威胁,最后促成了曼哈顿计划的制定。若这一发现提前几年,二战的战场或将不再由飞机与坦克主导,而是演变为核武器的相互毁灭;若晚了几年,这些研究成果可能永远不会公开,而是被政府封锁或列为绝密。

那么AI之于当下是否也会带来相似的变化?我觉得这是值得我们共同探讨的问题,而非我一个人就能回答的。我可以回答的是,AI如今的能力和发展的速度超出了很多人的预料。很多人的言行透露出这样一种困惑:AI让其他的一切变得无关紧要了吗?在关于AI的一切尘埃落定之前,发展“老派”的技术还有意义吗?

刘宇昆:拿原子能时代与现在进行对比,的确是一个很有意思的话题,但我的观点会比较谨慎。

对于很多人而言,原子能时代是一个令人失望的时代。如果你去读那个时代的科幻小说,人们认为原子能技术会给社会带来颠覆性的变化。但事实与当时人们的初始幻想相反,在军事战略层面,原子能变成了稳定局面的力量:它带来了以往求而不得的强大威力,维护着大国的势力范围,阻止战争发生。而在民用层面,我不知道你们感受如何,但我儿时学到核电站工作原理的时候非常失望。我们发现了令人惊叹的物理规律,却只是用它把水烧开,然后让水蒸气推动涡轮来发电。我觉得这个办法好蠢,而我们人类就是这样的一群“蠢货”。

原子能时代并未如人们所愿,令众多期待落了空。那AI时代也会如此吗?我不确定。我认为,当前最突破性和实用价值的的AI技术是用于蛋白质折叠预测的大语言模型。如果AI能够在其他领域带来成百上千个类似的突破,其影响力将远远超过原子能技术。

但还有另一种可能——AI最终只会取代一些“半创意性”工作,让我们的社会从工业2.0勉强迈入工业2.001。若真是如此,AI就是另一种“烧热水”的方式,而我对AI和核技术会有着同样的失望之情。

克里斯蒂安·贝尔纳德斯:约夏,你以往写过很多关于认知结构的作品,其中涉及注意力机制、转换器(transformer)架构、信息检索、自主行为(agentic behavior)等。能否请你分享一下超人类智能(superhuman intelligence)的最新进展吗?它会不会同样令人失望?

约夏·巴赫:我觉得它不会让人失望,但我对“进步”的理解发生了一些变化。应该说,我发现人的底线是会变化的

当我第一次看到《雪崩》和《钻石时代》时,包括我在内的很多人都觉得它们描绘的是反乌托邦社会,但今天看来,我们会觉得它们所描述的世界充满生机,也不是不能接受。我们世界发展得越来越慢,如同一坨粘稠、难以流动的蜂蜜,越来越容易预测——以往能自由发展几十年的技术,如今不过数年就会被政府的监管绞杀。相比之下,《雪崩》的世界依依然生机勃勃、不断向前发展,虽然向前的方向有些奇怪,但社会终究是在变化之中。

这里又引出了我的另外一个疑惑:新技术僵化的速度,是否已经超过了我们创新的速度?这是一个开放式的问题。不过,我觉得当下一切正在重新流动起来,未来的技术可以飞速发展,把现有的制度甩在后面,让后者没法适应、支配并摧毁前者。

我认为,通用人工智能(AGI)的开发路径,绝不只是投入更多的算力和更多的数据那么简单。如果我们回头看就能发现,AI在近70年的技术发展史上并不是一个重要的角色。想象这样的一个平行世界:在这个世界里,罗森布拉特(Rosenblatt)*发明感知机(perceptron)之后,人们就不再研究机器学习。就算在这样一个世界里,大语言模型(LLM)之类的现代AI,依然会在摩尔定律*带来足够的算力后自然而然地出现。

弗兰克·罗森布拉特(Frank Rosenblatt)是一位美国心理学家和计算机科学家,被誉为“深度学习之父”之一。他于1957年发明了感知器(Perceptron),这是现代人工神经网络的雏形,开启了机器学习和深度学习研究的新纪元。他1971年意外去世,但他的工作为后来的神经网络发展奠定了基础,对人工智能领域产生了深远影响。

摩尔定律是由英特尔创始人之一戈登·摩尔(Gordon Moore)1965年提出的。它指出,集成电路上可容纳的晶体管数量大约每两年翻一番,性能也会相应提升。这一趋势推动了计算机技术的飞速发展,使我们能够获得越来越强大的算力。

尼尔·斯蒂芬森在他的早期作品里并不认为AGI会出现,后来在《钻石时代》一书里,尼尔·斯蒂芬森虚构了一个LLM,它很聪明但没有自主性,只是技术上的锦上添花,并未改变这个世界的本质。诚然,我们拥有了超级智能的系统,但它们并不与人类竞争。我们仍然是我们,世界依然如故。

这跟我们如今的视界线不同,我认为,人类将逐渐走向人机混合的形态——未来人们会与自己的个人AI助手共享所有思考,让AI参与决策过程。这样一来,我们终将演化成另一种存在形态。

乔纳森·布雷布纳:我不确定这样的未来是否令人失望,但变化确实是有的。赛安,作为一个投资者,你既要与创业者同怀热忱,共同推动事业发展,又要保持清醒理性,审慎评估其项目成果及其在现实世界中的应用前景。你怎么看?

赛安·班尼斯特:非常明显,我们正在目睹一场技术的寒武纪大爆发,而作为一个投资者,我习惯于向后退一步,尝试看清楚未来6-8年的发展前景。

4年前我们已经开始思考高性能计算需要什么基础设施;而今天,我们依旧在思考如何应用高性能计算。因此,我觉得这并不是下注的好时候,尽管大众可能不理解我为何这么说。

如果我们回到《钻石时代》这本书中的世界,纳米技术和生物技术正在发生爆炸,人类可以进化成超人类,成为超级生物学家或者其他“超人”,然后“超人们”可以横跨不同的学科,完成不可思议的成就。

“接下来会发生什么?”这是我们投资者最重要的问题。但如今,我们只能跟其它投资者竞价,为“正在发生的事情”买单,一切都是可预见的,这搞得我们投资人的利润率很低。

刘宇昆:可是,我觉得AI的确可以变成一个人类心智的增幅器。AI是一个通用的交互装置,人们可以方便地从中获取不同领域的专业知识,而这些知识以前只会被锁死在知识库里。如果这个趋势继续下去,你的设想有希望成为现实,一小群人只需要利用AI,就可以掌握高度复杂的纳米技术和生物工程技术。

约夏·巴赫:你提到了“一小群人”这种说法。那你觉得,人类是否普遍拥有掌握AI的智慧?换个问法,如果你设想的这种AI真的出现了,那么有多少人有能力融会贯通各领域的知识,真正成为新时代的积极参与者?

你可以放心地让AI来帮你讲法语或者中文、相信它能完满完成任务,也可以让它深入掌握世事动态,在你需要时提供决策支持。那么,究竟有多少工作是可以被外包给AI的?有多少人可以适应这个新时代,而有多少人会被甩在后面?

科幻小说:现代的神话故事

乔纳森·布雷布纳:我认为,现在这个时代的加速感源于叙事危机(narrative violation)——AI在近几年的进展,完全偏离了我们在科幻小说里的预想。

我最喜欢举的例子是电影《我,机器人》(I, Robot,2004)的一幕,威尔史密斯(Will Smith)问机器人:“你能创作出一曲交响乐吗?你能凭空创造出一幅传世杰作吗?”电影里面的回答是“不能”。然而现阶段AI已经做到了这一点,至少能够以假乱真。实际上,在实现能像电影中那样在物理世界中灵活行动、执行复杂任务的机器人之前,我们更早开发了具有丰富创造力的AI。

所以我想问,我们对真实世界技术发展的反应,是否受到了过往读过的虚构作品的影响?艺术作品的叙事如何影响了我们对新技术发展的判断?
我们的故事有没有可能以其他方式塑造对现实世界的期望?

图源:根据《我,机器人》剧照自制

尼尔·斯蒂芬森:作为一个讲故事的人,我唯一的任务就是吸引读者读下去,如果我不能完成这个任务,我就一无所有。所以如何在易于理解、博人眼球的故事中插入不多不少的技术细节,就是一个微妙的平衡。

30年前,我在《钻石时代》中讲述了一个女孩和一个AI之间的故事,后者是前者的代理母亲与老师。我需要设定AI能干和不能干的事情,这样我才能够合理确定二者的关系能进展到哪一步。如果AI像上帝一样无所不能,我的故事就没什么可写的了。

同样,在你提及《我,机器人》的那个例子里,作者设定了一个可以到处走动,看起来很先进的机器人,但它无法创作。而如今我们知道,造出一台这样的机器人可比人工生成交响乐难多了。

克里斯蒂安·贝尔纳德斯:这里有一个很有意思的推论,那就是人们非常惊讶于AI可以创作,而这高度依赖于人类的创造力。什么是创造力与创作?你可以分享一些你的见地吗?

刘宇昆:作为一个科幻作家,这是我经常思考的问题。科幻作家在预测具体细节上几乎总是错的,但却常能准确把握住关于未来的“神话”(mythology)。别急,我现在会解释这是什么意思。

80年来,所有的AI研究都在尝试回答图灵的问题:机器可以思考吗?在图灵的年代,这个问题不可能被回答,因为人们都不知道思考的过程是怎样的。我们只能让AI去模仿生物思考。在模仿的过程中,我们发现,所谓“思考”只是一堆次级功能的集合。以前是下棋,现在是诗歌、论文与交响乐,AI一次次成功掌握了这些看起来很难的技能,但另一些人类觉得很简单的技能却迟迟未能掌握。

大量科幻小说认为,与世界对话需要意识和自我感知。但事实证明这大错特错,你可以拥有一台可以对话和思考的机器,而它不需要具有意识或自我感知。对图灵问题的回答就像剥洋葱一样,一层一层地把表面的问题转化为更深层、更细小的问题。也有一些人会批评AI仍旧不能“思考”,它们只是朝着某个目标计算,我觉得这个批评很到点子上。我们需要通过反复尝试知道目标在哪,适时调整目标。“我们能做什么”固然有趣,但“我们想做什么”是一个更加有趣的话题。

回到前面关于创造力的问题。我觉得无论科幻作家对技术细节的描绘有多么深入,错判未来都是稀松平常的,毕竟未来本就难以捉摸。我们常会被历史惯性绑架,认为技术的发展是一条必然之路,殊不知历史从来都蕴含着无数可能,我们只是碰巧走上了如今的道路。

所以无论作家的技术背景多硬核,他们都很难预测未来的技术细节。但是优秀的作家也不会拘泥于细节是否正确。一个作家如果想写出有趣、有影响力、让人印象深刻的书,他需要知道,写科幻小说实际上是在创造神话。

厄休拉·K·勒古恩(Ursula K. Le Guin)*说过,幻想文学古已有之,科幻小说只是它的一个新分支,我深以为然。科幻作者真正在做的,是潜入集体无意识的深处,唤醒沉睡的神明与鬼怪,让它们用自己的方式,诉说技术的寓言。

玛丽·雪莱(Mary Shelley)就没有任何理工背景,但她召唤出了科幻史上最强大的神明“弗兰肯斯坦”,这个形象至今仍熠熠生辉,出现在每一场关于技术的讨论之中。书中制造缝合怪的技术细节全是错的,但这从不是故事的关键——重要的是她将这个神话讲述得恰到好处。我坚信,所有那些写出了打动人心、经久不衰的作品的科幻作家们,一定都懂得如何讲好一个神话。

厄休拉·K·勒古恩(Ursula K. Le Guin,1929年10月21日—2018年1月22日)是美国杰出的科幻与奇幻文学作家。她的作品多次荣获雨果奖、星云奖等国际幻想小说领域的顶级奖项,其中《黑暗的左手》(1969年星云奖,1970年雨果奖)和《一无所有》(1974年星云奖,1975年雨果奖)尤为著名。勒古恩的创作融合了深刻的社会与哲学思考,其代表作还包括《地海传说》系列,她以独特的文学风格和对人性、性别、社会的深刻洞察,奠定了她在文学史上的重要地位。

《弗兰肯斯坦》中的“科学怪人”形象出自玛丽·雪莱(Mary Shelley)于1818年创作的小说《弗兰肯斯坦,或现代的普罗米修斯》,据说这本书开始创作时作者只有18岁。自1910年托马斯·爱迪生公司制作的默片《科学怪人》开始,这一形象在过去200多年间被改编了无数次,仅电影就超过70部。它已经成为一个经典的流行文化符号,象征着“创造与失控”“责任与逃避”以及科技发展可能带来的伦理困境。图源:monstercomplex

赛安·班尼斯特:我插一句嘴,我觉得在这方面AI非常令人激动,它可以让以往没有能力写作但有能力幻想未来的人,解锁作家梦想,表达自己的想法。好莱坞把大量资金砸在反乌托邦和其他描绘可怕未来的电影上面,因为毁掉东西总是容易的。但现在可以用极低的成本去创造出一个乌托邦。如果你是一个作家,你可以即刻开始构思一个美好的未来,然后在笔上实现它。我们在未来必然会有更加精彩的科幻小说。

幻想与现实的关系

乔纳森·布雷布纳:刘宇昆认为,讲故事的人是在召唤鬼怪与神明。巴赫,你在工作时也有这种感觉吗?我们是否正在把这个过程带进真实世界,还是说幻想只是幻想?

约夏·巴赫:我觉得写作是一种让不可见变得可见的独特工具。斯坦尼斯瓦夫·莱姆(Stanisław Lem)最初是一个控制论学者。在德国与友人探讨时,他意识到让计算机学会思考还为时过早,于是他转向写作,他认为用故事来激励下一代人去完成这项事业更加有意义。这个转折非常神奇。

斯坦尼斯瓦夫·莱姆(Stanisław Lem)是一位波兰科幻作家、哲学家和散文家。他以深刻的哲学思考和对人类、科技与未来的独特见解而闻名,作品风格融合了科幻、哲学和讽刺。他的代表作包括《索拉里斯星》

(Solaris)
等,该书被多次改编为电影,包括塔可夫斯基名作《飞向太空》(1972),其中探讨了人类对未知的认知和心理极限。

莱姆的作品既实诚又颇具讽刺。他不是在预言未来的模样,而是立足当下,谨慎地延伸一些理念。当时的科幻小说普遍热衷于这种手法。在莱姆的作品中,你会发现他只是微调了当时社会的一两个变量,就在上世纪五十年代构想出了互联网的雏形。在他的书中,互联网最初就只是一种远程传递文字的工具,像是传统报刊的电子化,而且人们不晓得如何搜索。莱姆肯定想不到,搜索功能是互联网的第一个发明,所有的一切都是基于搜索建立的。

这很常见,科幻作家缺少正确预判未来的想象力,每个人都像是被永远困在了1950年代人的思维中。而当我们认真思考未来时,我们也会发现,我们很难同时修改多个当下的变量,然后正确地预判未来。因为这涉及到我们身份的改变和认知方法的改变,这是意义的基石。

克里斯蒂安·贝尔纳德斯:我曾经在Google工作,我的小组叫做Primer,也就是《钻石世界》中那个AI的名字。我们的工作目标也跟小说中的“上传智慧”类似,也就是说我的工作就是让科幻成真,这也是我组织这个论坛的动机之一。各位作家(或者所有曾经创作过的人们),当你们看到你们笔下的东西成真之后,你们有什么感受?

刘宇昆:虽然我也可能会有想要自诩为这项技术发明者的冲动,但实际上我很少这样想。我的一部作品《结绳记事》中,描写了一个缅甸部落用绳结作为文字,主角通过研究绳结的语言学规律解决了蛋白质的折叠问题。这个技术背后的逻辑是,打结者需要提前预估成结后绳子各处的局部压力,想象出成品的形状。研究人员设法让计算机学会了这种思考过程,并用这个算法去解决蛋白质的折叠问题。

简单来说,我的核心创意就是语言学技术可以用来解决蛋白质的折叠问题——现在证明这个方向是对的。如果我不讲底线,大可以说我是个先知,但我知道,我只是把这个“神话”写对了,而不是成功地“预测”了这个技术的出现,我不能把这个创意据为己有。有一些科幻作家正在用类似的方式宣称自己成功预言了什么什么东西,你知道我会怎么评价这种人。

当我在看到现实世界中的技术在某种意义上复现了我小说里面的想法,我会认为我把神话写对了,我成功地捕捉到了这个技术背后的集体无意识。但我不会说我预言了这个技术的出现,或者说我的小说为世界带来了什么什么。我们经常会预测未来,有时候会一语成谶,但这只是瞎猫碰到死耗子。不过,“能把神话写对”就已经很了不起了,因为这意味着我的作品抓住了人性的某个基本特质。

尼尔·斯蒂芬森:对我而言,我会认为这是对小说理念的工程与商业化验证。

回到我前面“让读者读下去”的理念,让一部作品读不下去的最致命原因,就是作品前后矛盾,故事不自洽。在传统的奇幻故事里面,你需要为你的幻想世界写一个编年史;在科幻故事里面,你也需要在提出一个新技术发明后,告知读者这个技术是如何研发的,背后的经济动力是什么,为什么可以获得融资并推向市场。为了如此,所有设定在近未来的技术都是对现有技术的合理外推,而整个故事类似于一个商业案例。

如果现实世界中出现了和我的想法比较接近的东西,我会说我做了该做的功课,对这个概念的工程学与商业运作有一定的了解。但正如刘宇昆所说的,很多预测最后都不会成真,不过科幻读者一般对这些错误的预测是十分包容的。

未来世界观塑造

乔纳森·布雷布纳:我们SPC很多时候会跟成员探讨“世界观架构”的概念。根据我的经验,在任何需要“搁置怀疑”的领域,都必须建立一个拥有连贯且一致的内部规则的世界。即便这些规则与我们现实世界或日常经验中的法则并不相符,故事世界的内部逻辑必须始终保持自洽。这个原则在写作中尤其重要。要推销一个故事,让人相信并不存在的事物,你就需要通过逻辑,让观众与你的故事产生连接。

请问在座各位,在你们的创作过程中,或者在其他涉及到塑造世界与讲故事的场景,例如作为一个管理者向投资人或创始人推介项目或产品时,或是作为一名研究员需要向公众解释你研究的意义时,是否也经历过类似的体验?建构虚拟世界的感受如何?是否有时会“走得太远”,过分沉浸在构建世界的内在逻辑中,反而偏离了原本的核心目标——讲好一个故事?

赛安·班尼斯特:在我会议不多的时候,我会花大段大段的时间来做白日梦。我会思考这个世界将走向何处,并尝试编织出一个故事。我需要把视线放得很远,远到可以编织出整个世界的故事,然后在其中探索并打捞投资机会。有趣的是,也许是由于某种集体无意识,总会有创业者不期而至,他们的想法恰好契合我所发现的这些机遇。这种同步性往往令人惊叹。

如果一个创业者能够讲好一个故事,我们的对话会非常愉快。如果他的故事可以引起我的共鸣,我就会不自觉地与他们一同畅想那个未来图景。这往往会引导我做出投资决策:我愿意投入资金,成为他们勾勒的未来的一部分。我觉得,在投资领域,“世界构建”的能力是一个关键但常被低估的要素。

约夏·巴赫:创办一家公司,需要同时创造一种意义。你会感受到这个意义对你的呼唤,并且坚信你所干的事情是正确的。我认为解释意识是最重要的哲学问题,所以我创造了加利福尼亚机器意识研究所(California Institute for Machine Consciousness)。

同时,我也觉得,描绘一个能够可持续运转并可与当下交互的世界,也很关键且必要。以马斯克(Elon Musk)为例,他的成功很大程度上源于他出色的故事讲述能力。“年轻人需要拥有一辆开得很快的车”,这是一个很老的故事,但是他可以旧瓶装新酒,把这个故事变成登陆火星,甚至是在新的星球上建立新的文明。他的故事有力地连接了现在与未来,引导我们思考遥远的可能性,并为之长远谋划。

刘宇昆:我觉得技术人员热衷于建构世界有两个原因。第一,在既定规则下构建世界就像是一场引人入胜的积木游戏。语言、万智牌、计算机程序很“好玩”,是因为我们享受在规则框架内,运用手中的基础元素,体验创造的过程。

第二个原因则是,技术创造是技术人员自我表达的方式,甚至可能是最重要的方式。我们会把我们的价值观灌注到造物当中,换言之,人的造物是其思想的外显,技术就是人类思想可以触碰的形式。而技术人员,就是喜欢以这种方式表达自我的人。

因此,建构虚拟世界就是在以游戏化的形式表达自己的价值观。这正是它的魅力所在。虽然钱是好东西,但是很多人从事某一行业不一定是为了钱。我们希望让自己的价值观转化为切实的事物,用我们的价值观去影响这个宇宙,而技术就是当下实现这个目的最好的手段。无论是作家还是技术人员,我们热爱自己的工作,是因为我们的工作既好玩,又可以表达自己的价值观。

尼尔·斯蒂芬森:并不存在世界设定的通解。一些小说把背景放在远未来,远到与奇幻几乎无异。比如《沙丘》(Dune)里面关于星舰工作原理的描述,就完全是一个奇幻点子,而跟现有技术没有什么关系。而《苍穹浩瀚》(The Expanse)这部剧集就更接近我们的世界,只是在当下现实世界之上添加了少量关键设定。比如说,设想出一种火箭发动机,它可以让飞船保持1G加速度直到航程中点。只是多了这样一个发动机,未来世界会发生怎样的改变?而基于这个核心设定,我们可以建构出一个怎样的世界?

因此,每本书都不同,但创作过程中往往遵循一个基本脉络:先有一个想要表达的核心想法,然后填充人物和情节;下一步则是精心构建一个自圆其说而又完美服务于故事本身的世界。

乔纳森·布雷布纳:你之前提到你喜欢那种“获得了一个有更高G力的火箭引擎”的小说。我感觉你喜欢向过去看,比如你的《赤色马球》就带着读者回到了原子能时期。我也有过类似的喜好,有一段时间在钻研《圣经》古文本考据。我觉得这是一种对时代加速感的防御性反应,时代发展得越来越快,没人可以完全理解现在正在发生的一切。而“考古”只是在发现业已生成的旧信息,你知道它不会创造新的信息,这可以逃避加速感给人的不适。

我知道你10年前就已经开始写《赤色马球》了。你写这本书的动机包括逃避世界的飞速变化吗?

尼尔·斯蒂芬森:现在LLM给大众的冲击,就像1950年代太平洋上的核试验给人的冲击一样。看啊,美国造出了一颗一千万吨的氢弹,苏联造出了五千万吨的氢弹,我们的技术是多么的强大!

但是我,还有很多人,会更喜欢一些更小层面上的核技术,比如荧光手表让我们可以在黑暗中看到时间,荧光镜让医生不用剖腹探查。它们以一种可感知的方式,以一种具体的方式改变了我们生活的某个细节,而不是用宏大的技术神迹来让人迷失。我觉得这就是我们面对加速感无所适从的根源。而且,我也同意看向过去,比如破译被烧毁的庞培手稿,可以让人走回舒适圈,找到内心的宁静。

通用型人工智能(AGI)

乔纳森·布雷布纳:现在来讨论AI与意识吧,这应该是个有趣的话题。我想问的是,你觉得未来什么样的技术可以被归类为AGI?AGI离我们还有多远?

约夏·巴赫:恐怕现在没人可以回答这个问题,我至今没有看到过任何一个足以说服我的论述,无论是支持或者反对AGI的。

从现象学角度看,LLM确实展现出了一些类AGI特质,但这与人类意识有本质区别。Transformer架构不同于人类意识,它不需要在工作记忆中创建连贯叙事来主导心智活动(colonize the mind)。LLM是基于给定的模型子集工作,具有决定论特征。当你用提示词引导LLM扮演对话伙伴时,它可以呈现很多种可能;而当你让它模拟某个应用程序,这些现象学特质则会消失。而如果你引导它进入一种具有觉知和自我意识的状态,它会建立因果模型来解释自身行为,试图模拟这场对话底层的因果关系。

这就带出了一个复杂的问题,LLM生成出的多媒体故事与大脑产生的叙事孰优孰劣?我们也只是几千亿个神经元的集合,细胞之间彼此协作,共同塑造了一个严丝合缝的认知世界。对我而言,这是一个悬而未决的重要问题。或许我们需要一个模型,来精确重构人脑古怪的认知回路。我们能否将其转化为某种可通过机械可解释性(mechanistic interpretability)来检测的东西?

还是说,我们该从另一个方向下手——从零开始建立一个自组织系统,让它处理足够复杂的任务,如视频序列预测或机器人身体控制。在学习过程中,会出现某个临界时刻,这个系统会发生相变,性能出现质的飞跃,然后它会以传统的方式学习语言,并最终报告其自身的现象学体验。

AI还有一个“普遍性假说”(the universality hypothesis in AI),只要训练数据集相同,不同架构的AI模型最终会收敛到相似的特征层级结构(feature hierarchy)。这是OpenAI的克里斯·奥拉(Chris Olah)提出的假说,他注意到不同的视觉模型会提取同样的视觉特征,甚至人脑的视觉皮层提取的也是这些特征。所以,如果我们建立一个AI模型,然后用人脑的输入输出数据去训练它,那么这个模型会因此产生意识吗?

细想这个问题,更是让人脑洞大开:某种程度上,人类自己也是一个经过端到端训练的模型,训练集目标是成为人类。没人知道人类的认知过程究竟是否存在AI所不具备的隐秘“神识”。

回到我自己,我研究的课题就是,是什么让我们产生了内驱力?我们需要怎样的火花,让一个自组织系统变成一个具有自我觉知、可以与世界互动的系统?也许再来几篇论文就能解决这个问题,也许再过几年就有了。

我认为意识并不是某种魔法,更不是什么阴谋,我们也并非芯片上运行的模拟人。根据我们对人脑数据处理能力的观测和认知复杂度的估算,理论上一张H100显卡应该就足以模拟我们的“内心影院”了。看看现在的生成式模型,它们创作的作品展现的丰富细节和思维深度,它们在计算能力上已经达到了人类神经网络相当的水平。

NVIDIA H100 GPU是英伟达2022年发布的基于Hopper架构的高性能计算与AI加速利器,具备第四代Tensor Cores、HBM3内存和多实例GPU技术,AI训练速度比上一代A100快9倍,推理速度快30倍,广泛应用于AI模型训练、数据分析、高性能计算和云服务等领域,是未来计算的重要发展方向。不过,H100的下一代H200也已于2023年11月发布。图源:https://neysa.ai/

现在还需要解决的问题就是,我们是否可以让这个系统涌现出自主性,使其可以主动观察世界,形成类似生物的感知-反应回路?虽然目前我还不清楚具体的实现路径,但我认为突破点在不远的未来一定会出现。这个解决方法也许只是对现有LLM和多模态模型的扩展延伸,也可能是需要设计全新的损失函数(Loss Function),正是这种未知性,让这个问题变得如此吸引人。

乔纳森·布雷布纳:现在看来,也许只需要再来几篇突破性论文就能看到机器意识的问世。可是放在几年前,大多数人还认为机器意识是天方夜谭。

约夏·巴赫:说不定,这些突破性论文甚至不是人类写的。虽然,LLM并不是我们追求的AGI,但是LLM或许可以用穷举法比人类更高效地找到实现AGI的技术路径,我们可以把这个工作完全交给它。

幻想与现实的关系

克里斯蒂安·贝尔纳德斯:赛安刚才说AI是一场新的技术革命,约夏也说没人知道AI会走向何处。赛安,作为一个靠预测未来吃饭的投资人,AI的加速进步会如何影响你的投资分析?

赛安·班尼斯特:创业者既是实干家又是梦想家,我依赖于他们给我的信息来判断未来。我会追逐离群值(outliers)。作为投资人,我经常听到许多相似的创业故事,直到某个人带来一个全新的故事,让人耳目一新。我就是在找这样的人。投资行业把这种人称之为“领头羊”(bellwether)。

现在我对灵性技术(spirit-tech)很感兴趣。灵性技术把技术引导回主观意识,开始有一些人思考技术对灵性与宗教的影响,如何用技术启蒙我们对自己的认知。在现阶段,理解我们自己的意识比理解AI是否会产生意识更为重要。

AI产生意识的时刻,会跟圣灵感孕*一样具有神性。我们恐怕还没有充分认识到这一事件的重大意义。回头看来,我们习以为常的先进技术,在过去的某个时刻也曾被认为是不可能的。一千年前的古人可没法通过Zoom打视频会议。所以,当AI真正产生意识时,人类可能也不会那么震撼,而是淡淡地“哦,知道了。”

我的很多投资决策、我对未来的一部分想象,跟尼尔·斯蒂芬森的作品是一致的。我认为科幻作品的意义在于,它想象了我们可能生活的未来,也是我愿意投资的未来。但是在我经历过的很多关于AI的其他会议里,大家对科幻小说并不感冒。我真心希望人们可以读更多的科幻小说,知道自己在向怎样的未来迈进。

约夏·巴赫:不过我们要意识到,故事创作本身也有其局限性。为什么基督教神话以“被提”*结尾?因为当所有灵魂融为一体,成为某种不可知的存在,摆脱了肉体的痛苦,就再也没有“人”的故事可讲了。我怀疑也是因为这个原因,类似主题的科幻小说少之又少。

圣灵感孕是基督教信仰中描述的奇迹,指耶稣由神的力量在处女玛利亚子宫中成孕的过程,而非通过人类性行为。

被提(Rapture)是某些基督教信仰中,信徒突然被神的力量带到天堂的末世事件。

尼尔·斯蒂芬森:我可以为没有被提的人写一个很精彩的故事——至于上了天堂的人,肯定很无聊,他们除了弹竖琴和飞行以外什么都不会干。

克里斯蒂安·贝尔纳德斯:在我跟LLM的对话之后,我改变了我对我认知的一些看法。约夏,你在与LLM互动的时候,有没有改变了你对自我及其边界的一些想法?

约夏·巴赫:并没有什么改变。一个正常运作的LLM并不是自由发挥的算法,而只是在执行人类给它的任务。他们只是在通过模拟人类的语言,来模拟人类的思考过程。我感兴趣的是做一些现在做不到的事情,比如用它们创作以往不存在的艺术类型,一些人在尝试利用LLM给音乐配上人类不可能想到的歌词。

当我们写故事、挖想法、码代码的时候,我们只能在人类思维的框架下去做这些。人类不会为了写几行诗就创造出一个跟《钻石时代》一样完善的世界,这样性价比很低,但LLM可以。单是理解这个世界、与之互动,已经超出了人类的能力范围;而对于LLM,它可能并不具备意识,但很快就能够操控这样的世界,在其中创造艺术,与之互动。这非常令我兴奋。一旦LLM走到了这一步,人类就很难跟上它的脚步了。

彩蛋/快问快答:

你们的意识理论是什么?

尼尔·斯蒂芬森:我认为,意识和肉体是密不可分的,正因如此,我很难理解AI的存在——我无法认识一个意识或智能,而它并不依赖于脆弱、有限、与我们相似的载体。

刘宇昆:作为一个唯物主义者(materialist),我从根本上相信意识可以体现在其他物质而不是人体中。但问题是,我们是目前唯一存在的意识案例。一个与我们截然不同的意识体?我不知道它到底是什么。

赛安·班尼斯特:肉体是我们在地球上穿的太空服,意识是一种能量,它无处不在。

约夏·巴赫:很多其它的文化都信仰泛灵论(Animism)。泛灵论认为,生与死的边界在于物质是否承载灵体,而灵体具有主观能动性与意识体验。但在科学的世界,我们不相信灵体,我们只相信机制。所以我们才有意识的难问题,我们很难用机制去解释心理表征、内省、情绪体验,尽管AI已经展现了复制这些体验的可能性。

我自称“赛博泛灵论”者(cyberanimist),我认为灵体的实质是从大自然出现、接受大自然塑造、在大自然的推动下运行的自组织程序。如果你接受了我的世界观,你会发现亚里士多德也有同样的想法,他认为灵体在动态地塑造物质,然后让物质以特定规律运行。

从这个角度来说,我是物理主义者(physicalist)或自然主义者(naturalist),但我认为软件是我们描述现实的一种方式。如果忽视软件,你就无法更简单地描述现实。软件本身并没有什么神奇的,它具有这些非物质的特性。现在很多科学无视了软件的部分,只是把脑当成纯物质的神经簇来研究,这是一个巨大的错误。

译者后记

我自认为看过的科幻不少了。先展示一下成分:我看过《三体》、《基地》、《你一生的故事》这样的科幻小说,也很喜欢爱死机、攻壳、流浪地球等科幻电影和电视剧。不过我最喜欢的是电子游戏:在《地平线》的世界里扮演埃洛伊狩猎机械兽,在《群星》中领导刚刚发现超光速飞行的文明统治银河,在《死亡搁浅》里重新连接破碎的世界,在《2077》中以朋克精神把象征跨国公司权威的雄伟大楼烧成灰。

《三体》在技术上无比硬核,黑暗森林理论甚至在现实中成为了反对METI(主动发送信息到地外)的理论依据;《我,机器人》的阿西莫夫三定律及其推演出的内在矛盾,迄今仍是机器人与AI伦理的一盏明灯。这样的“硬”科幻作品固然可贵,但科幻作品并不一定要懂科学。攻壳和2077并没有深入探讨作为核心科幻点子的义体技术,但却深入地讨论了技术对人性的异化、技术加重资本主义剥削等严肃的哲学与社会议题。它们在科学方面的“软”并没有影响它们作为文学作品的分量。因此,科幻的伟大既在于它能成为像《三体》、阿西莫夫机器人学那样的理性圣殿,又能够如刘宇昆所述般“深入集体无意识”,打捞出披着技术外壳的赛博神祗。我个人虽偏好前者,但我承认两者同样闪闪发光。

对谈视频链接:

https://www.youtube.com/watch?v=J7FN53FqB1U&t=2026s

对谈音频链接:
https://open.spotify.com/episode/6SHoBM5J96mA7TzA1thaGw?si=7d10e96d781744aa

关于追问nextquestion

天桥脑科学研究院旗下科学媒体,旨在以科学追问为纽带,深入探究人工智能与人类智能相互融合与促进,不断探索科学的边界。欢迎评论区留言,或后台留言“社群”即可加入社群与我们互动。您也可以在后台提问,我们将基于追问知识库为你做出智能回复哦~

关于天桥脑科学研究院

天桥脑科学研究院(Tianqiao and Chrissy Chen Institute)是由陈天桥、雒芊芊夫妇出资10亿美元创建的世界最大私人脑科学研究机构之一,围绕全球化、跨学科和青年科学家三大重点,支持脑科学研究,造福人类。

Chen Institute与华山医院、上海市精神卫生中心设立了应用神经技术前沿实验室、人工智能与精神健康前沿实验室;与加州理工学院合作成立了加州理工天桥神经科学研究院。

Chen Institute建成了支持脑科学和人工智能领域研究的生态系统,项目遍布欧美、亚洲和大洋洲,包括、、、科研型临床医生奖励计划、、等。