打开网易新闻 查看精彩图片

文|郭晓静

编辑|徐青阳

1944年,阿根廷作家豪尔赫·路易斯·博尔赫斯曾在《巴别图书馆》中,为人类构筑了一个由无限六角形回廊组成的“全书图书馆”。

起初,它是神谕的代名词。人们沉浸在“万物皆已写就”的狂喜中,穷极一生去追寻那本能解释宇宙真相、甚至是个体命运的“辩护状”。

然而,当狂欢落幕,真相显露:在近乎无限的、由乱码组成的废纸堆里,寻找一行有意义的叙述,概率微弱到近乎虚无。

信息的极度冗余,非但没有点亮智慧,反而以噪声淹没了意义。

博尔赫斯笔下的旅行者穿梭于周而复始的卷册间,看透了那令人绝望的循环。他预言人类终将灭绝,而图书馆永存——“青灯孤照,无限不动,藏有珍本,默默无闻。”

八十余年后的今天,这个隐喻跨越时空,精准地击中了生成式AI时代的神经。

我们正站在知识饱和的奇点:当算法可以在瞬间穷尽文字的所有组合,我们是在挖掘通往真理的沃土,还是在加速步入一片精神的荒原?当一切皆可生成,是否意味着一切皆无意义?人类智慧的护城河在何方?我们应该如何与AI共存,并利用它创造出真正有价值的内容?那些记录着人类“不完美灵魂”的文学与艺术,是否会成为我们最后的精神庇护所?

图:AI生成的巴别图书馆
打开网易新闻 查看精彩图片
图:AI生成的巴别图书馆

带着这些关于创造、教育与存在的追问,在高山书院十周年的现场,我们与香港科技大学首席副校长、英国皇家工程院院士、中国工程院外籍院士郭毅可深聊了近两个小时。他不仅是人工智能与计算机科学学者,从事人工智能、数据科学及其在科研与教育体系中的应用研究,而且长期持续推动AI与跨学科创新的结合。

郭毅可看来,AI并不会简单地“淘汰人”,而是重塑工作的结构与分工方式,很多职业将转向更高层次的人机协作与复杂决策。

在谈及人工智能的社会意义时,郭毅可进一步提出,人工智能的价值不只是提升效率,而在于可能重塑组织结构和社会结构本身。因此,他始终反对将AI仅仅视为一项工具或工程问题,而强调它对教育体系、人才培养模式以及制度设计的长期影响。他也多次指出,人工智能不应被视为计算机学科的简单延伸,而是一门天然要求跨学科融合的新型学科。

打开网易新闻 查看精彩图片

以下是本次采访的实录,希望能为您带来启发:

Q: 近年来,大模型的发展让人联想到博尔赫斯在小说《巴别图书馆》中描述的场景——一个涵盖所有知识的无限图书馆。在这样的时代背景下,如果人类获得任何答案都只需0.1秒,那么“提问的能力”是否会成为我们最关键的智力护城河?

郭毅可: 如果人工智能的发展能够将世界上所有以文字记载的事实或知识,压缩成一个模型,并在提问时生成它认为正确的回答,这便是你所说的“0.1秒获得知识”。

这里我们需要先明确知识的定义。知识是一种具有共识性的认知,而“共识”本身是一个统计学概念,即大多数人同意。

大模型的“压缩”过程,本质上就是寻找统计意义上的共识。从这个意义上讲,大模型在很大程度上生成了与我们所定义的“知识”相一致的内容。

因此,需要费力记忆和构建个人知识体系的重要性似乎在下降,因为我们有了一个“副脑”。现在,关键问题变成了“retrieval”——如何获取你想要的东西。而这取决于“你想要什么”以及“你为什么想要它”。

学会提问变得至关重要,但这并非易事。一个浅显的问题,只能得到浅显的答案。只有当问题本身提得极具特色,获得的答案才可能更有价值。

但比提问能力更重要的,是与机器的“交流能力”。你问机器十次,它可能给出十个不同的回答。

你需要从中判断哪个是对的,它们之间有何异同,以及为什么不同。最精彩的并非一次性的问题,而是在多轮对话中,不断提升对信息和知识的精度要求。

因此,我认为与机器的交流能力,才是未来最重要的能力。

Q: 与AI提问和与人类提问,方式上是否存在本质区别?如果人类越来越习惯于从AI那里获得加工好的结论,思维是否会因此萎缩?

郭毅可: 没有太大的本质区别。唯一的不同可能在于,与你交流的AI知识量极为丰富。和人聊天可能会无话可说,但AI总能延续对话。关键在于,你需要判断AI生成内容的稳定性及其内涵。人是主观存在,而AI是客观存在,你如何认知它的回答,会带来不同的感受。

至于思维是否会萎缩,这取决于使用者自身。

为什么你会觉得去图书馆做大量功课不算“偷懒”,而用AI获取知识就是“偷懒”呢?这只是获取知识的途径和能力发生了变化。恰恰相反,这对你提出了更高的要求——你必须时刻对AI给出的内容做出反应,这是一种真正的“对话”,而非被动的“被教育”。

所谓的“AI幻觉”,其实比人类的“幻觉”,也就是主观臆断,要多得多。正因为知道对方是机器,我们反而更能产生一种怀疑和批判的精神,这会让人变得更聪明,而不是更懒。那种认为“更容易地获取知识会导致大脑萎缩”的观点,是非常天真的,因为它仍然套用了人与人交往的逻辑来想象人与机器的交往。

功能的转移是必然的。比如,我们现在记不住电话号码,但我们把记忆的能量转移到了推理等其他能力上。我们打字快了,认识的单词量可能更大了。我不会打算盘了,但我会编程序了。这并非萎缩,而是能力的进化和迁移。

Q: 现在网络上充斥着很多“不是……而是……”这类AI痕迹明显的句式,您认为这是好事吗?当AI能写出比普通诗人更“像”诗的文字,人类文明中哪些文学作品是AI永远无法企及的?

郭毅可: AI写的和AI与人共创的,是两个完全不同的概念。如果一个人懂得如何与AI协作,他们共同创作出的文章可以非常有深度。AI知识量丰富,如果使用者具备判断力和被启迪的能力,就能创作出非常好的文章。

我最近看到一个微信号,作者的文章就是与AI共创的,写得非常好。例如,她可以提出一个命题,如“意识的物理性原理”,这是一个非常宽广且难以找到人类对话者的话题。

但AI可以根据这个命题,与她展开对话,最终形成一篇非常漂亮的文章和观点。这才是正确使用人工智能的方式。AI对人的智力、意识、行为是否有帮助,归根结底是人的问题,不是机器的问题。

因此,我非常提倡和鼓励学生正确地使用AI。当然,像写欢迎词这类格式化的内容,完全可以交给AI,它甚至会比秘书做得更好,因为它能自动搜索相关信息,写得更全面。

Q: 您能否总结一下,什么才是“正确地使用AI”?

郭毅可: 正确的使用方式,是把AI当作一个知识渊博的讨论伙伴。你既要对它充满尊重,也要充满怀疑。你要向它提出真正有意义的问题,比如“意识的物理性本质是什么?”或“你如何看待意识的量子性”。

AI会为你总结出相关观点,然后你需要基于它的回答进行分析:哪些是正确的,哪些具有启发性,哪些是完全有问题的。对于你认同的,可以接纳为知识的增强;对于有问题的,可以继续探讨、否定,甚至与之争论。

目前AI的难点在于它还不太会“争论”,因为它没有自己的观点和价值观。但随着技术发展,我相信AI会逐渐具备争论的特性。

Q: 沿着目前主流的Transformer技术路径,AI能进化出自己的观点甚至情感吗?很多人认为它只是“数据的压缩”,无法拥有真正意义上的情感。

郭毅可: 当然可以。当AI的推理能力越来越强,它就开始建立自己的观点了。通过强化学习,我们告诉它哪些推理结果是值得欣赏的,它就会慢慢形成一种观点。这观点起初是你教给它的,但如果机器开始“自己教自己”呢?它就会慢慢形成自己的观点。

至于情感,为什么AI不能有情感?情感是被感知的。当你觉得和它说话舒服了,情感不就出来了吗?罗永浩和“豆包”吵架,就证明了AI可以进行情感对话。

我们不应该先入为主地认定“机器没有情感”,而应该思考如何让机器做得更好,让它的情感能被我们感知到。这在技术上并非难事,本质上就是将语言的语义,通过学习,映射到语音的频率上。

我们人类总喜欢把自己放在第一位。假设有造物主,他造了我们,我们现在也在造机器。凭什么我们有的东西,机器就不能有呢?

Q: 那么,对于像新闻这类对客观事实记录要求很高的职业,AI的出现是否意味着职业意义的消亡?

郭毅可: 新闻记者的素质要求会越来越高,而不会消亡。因为有了AI这个工具,你的知识面会更广,能问出更精彩的问题,报道也会有更深刻的视角。你的能力被增强了。但如果你坚持用今天的方式工作,那就会被淘汰。这就像你原来是开马车的,现在有了汽车、飞机。你如果只坚持开马车,那自然会失业。但如果你能转化自己的技能,去开汽车、开飞机,那你的能力就提升了。这是一个技能变化的问题。

Q: 您对AI技术的发展一直持非常积极和乐观的态度。您认为它是否存在负面影响?我们是否需要防范它对人类产生“敌意”?

郭毅可: 悲观有用吗?没有用。它一定会继续进化。所以我们不需要悲观,而是要去“进化你自己”。这不是乐观或悲观的问题,而是清醒地认识现实。

人类自身之间也存在敌意。AI的敌意,本质也来源于人类。如果我们都充满敌意,那教出来的AI有敌意也很正常。但反过来想,如果人类意识到,我们之间的敌意可能会被一个第三方(AI)利用,最终导致我们共同的毁灭,那么我们或许会因此学会消除彼此的敌意,这未尝不是一件好事。

作为科学家,我认为技术上没有“很难”的事,只有我们自己不够聪明,或者不愿去做。只要想得到,并且愿意去做,就没有什么做不到的。

Q: 在您看来,下一步AI最值得期待的进化是什么?您对AI发展有很乐观的态度,是否认为 AI行业过热或存在泡沫?

郭毅可: 我期待它能像一个聪明的人一样,越来越聪明。我们变得更聪明,然后再带着它一起迭代。

至于预判它的迭代速度,这取决于你的目的。如果你想赚钱,那又是另一种预判方法。训练大模型是极少数公司的事情,而且每次训练都应该有明确的目的,比如降低推理成本、让模型更紧致、或知识更丰富。过去那种为了“打分”而训练模型的模式,是巨大的资源浪费,现在不会这样了。大部分人是在应用模型,在模型基础上创造价值,比如提升模型的质检能力、推理能力或自我进化能力。研究、制造和应用会慢慢分开,像“百模大战”这种愚蠢的事情不会再发生了。

任何事情都从泡沫开始,既然是泡沫,就说明它有意义。但泡沫破裂是正常的。我认为泡沫可能不是一下全破。戳破一类泡沫是很容易的,比如DeepSeek一出来,你看就没有人再做那种纯粹堆参数的大模型了。技术的道路一旦准确,接下来就是效率的迭代,就像摩尔定律一样。

感谢高山书院对本文的贡献