来源| 创头条
近日,德克萨斯大学奥斯汀分校计算机科学教授、量子信息中心主任Scott Aaronson在Hrvoje Kukina的最新播客中受邀接受采访。
在提及AI时,Aaronson对于有些看衰 AI 发展速度的言论表示不解:
“三年前它(AI)可能还在上小学,现在已经读研究生了。进步的速度就是这么快。所以,我实在看不出为什么有人能自信地预测,5 到 10 年后我们不会有能帮我们写研究论文的AI,不会有能做原创数学研究的AI……我觉得这种论证根本站不住脚。”
此外,他还分享了几个关于量子计算、人工智能和宇宙本质的的见解:
·“待AGI实现之后将它装入量子计算机,我们就能验证多重世界理论到底是不是真的。”
·“过去这五年,大语言模型和其他生成式 AI 取得的惊人成就,实际上给我们做了一个生动的演示——单纯用经典计算就能产生多么高水平的智能。”
·“人脑中存在着一个大谜题。但至少 30 年来,我一直没见到研究它产生了什么科学成果。”
·“ 量子计算最大的理论挑战,就是要弄清量子计算机到底能用来做什么。已经出现了一些著名的问题类别,可能获得指数级的量子加速。其中最大的两类是:第一,模拟量子物理和化学系统本身;第二,破解目前保护互联网的公钥密码系统。 ”
·关于宇宙的计算本质:“如果你给我一个方程,像费马大定理那样,问它是否有整数解,或者给你一组砖块问它们能不能铺满整个平面,这些都是不可计算问题的例子。这意味着不存在任何算法、任何计算机程序能正确解决这类问题的任意实例。”
以下为本次访谈的全文翻译:
AGI的实现将能解决人类与量子力学的最大难题
主持人:今天很荣幸请到了杰出的计算机科学家 Scott Aaronson 教授。我们先聊聊量子计算这个话题。在您看来,要让量子计算机真正普及应用,我们现在面临的最大技术和理论难题是什么?
Scott Aaronson:说到最大的挑战,其实和 30 年前差不多,虽然这些年确实进步不小。从技术层面看,最关键的是如何打造一个能精确操控量子比特的设备。这个设备的精确度得足够高,最好能达到量子纠错码来实现完全容错量子计算的水平。这是做量子计算系统的人面临的最大难题。
不过去年我们也看到了一些突破,第一次看到了纠错后的量子比特表现开始超越原始的物理量子比特。这些突破很可能就是未来规模化容错系统的基石。当然,要做到真正实用还有很长的路要走。
理论方面最大的挑战,说白了就是要弄清量子计算机到底能用来干什么。目前已经有几类问题可能获得指数级的量子加速。最重要的两类是:一个是模拟量子物理和化学系统本身,这对材料科学、新药研发、太阳能电池和高温超导体的设计都很有帮助。另一个是破解现在保护互联网的公钥密码系统,这个能力对人类整体来说不一定是好事,但对最先掌握这项技术的情报机构来说很有价值——如果我们不及时换成抗量子密码系统的话。
当然,大家一直在探索量子计算机的其他用途。我们知道有个很重要的 Grover 算法,它的应用范围比前面说的两类要广得多,但提升的效率没那么夸张,不是指数级的,只是平方根级别的提升。不过从长远来看,我们确实期待能用 Grover 算法来加速计算机科学中的很多基础问题。至于在其他问题上能不能达到指数级的加速,这仍然是个活跃的研究课题。比如说,量子计算机能不能在组合优化问题上给出比经典计算机更好的近似解?机器学习任务能不能从量子加速中受益?有些人为了拉投资可能会拍着胸脯说“这些都没问题”,但说实话,这些都还在研究中。
主持人:您觉得实现量子优越性会不会让我们重新思考智能或创造力的本质?
Scott Aaronson:其实从这个角度来思考的话,我们现在就可以开始了,不用等到量子计算机真正造出来。从哲学角度来说,量子计算给我们最大的启示是:什么东西可以高效计算、什么东西不行,这不是我们光靠想就能决定的,最终还得靠实验说话。具体来说,量子计算机对“扩展型丘奇-图灵论题”提出了很大挑战。这个论题——或者说艾伦·图灵与阿隆佐·邱奇认为,自然界中的一切现象都应该能用我们现在这种经典计算机高效模拟出来。
说到智能和创造力,从目前掌握的证据来看,人脑里不管在原子层面发生了什么混沌事件,影响了神经元是否会激发,但一旦神经元决定激发与否,这就完全是个经典的事件了。所以只要我们能把大脑建模成神经网络,把神经元的活动理解为有一定随机性的开关行为,这基本上就是一个经典计算的过程,可以用经典计算机科学的理论来理解。
过去这五年,大语言模型和其他生成式 AI 取得的惊人成就,实际上给我们做了一个生动的演示——单纯用经典计算就能产生多么高水平的智能。所以量子力学是否与我们的大脑活动有关,这仍是个开放性问题。但如果有关系的话,按我的理解,这种关系一定发生在单个神经元的尺度之下。
主持人:那您对现实的本质是怎么看的?
Scott Aaronson:我觉得量子力学可以说是人类有史以来发现的最深刻的经验事实了。因为它不只是修改了物理学的某个细节,比如说粒子怎么运动;也不只是修改了时间和空间,这是相对论做的事情。量子力学彻底改变了我们理解物理系统状态的方式,改变了我们计算事件发生概率的方式。它甚至改变了那些看起来更像数学而不是物理的、似乎是先验的逻辑概念。
具体来说,量子力学告诉我们,任何能处于不同可区分状态的孤立物理系统,也可以处于这些状态的叠加态,也就是这些状态的复线性组合。这是现代物理学的基础,量子力学一百年前就说明了这一点。但直到今天,对它意味着什么仍然没有统一的认识。
这是不是意味着我们必须放弃对客观现实的描述,只能满足于计算各种测量结果的概率?这是最初的哥本哈根诠释的观点。或者我们应该认真对待这些数学,既然它在谈论叠加态,我们就把叠加态本身当作基本的现实?这就是多世界诠释的思路。如果顺着这个思路想下去,你会说测量也只是我们视角有限的产物。实际发生的是,我们与被测量的系统产生纠缠,世界分裂成多个分支,在一个分支里我们看到一个结果,在另一个分支里看到另一个结果。这样一来,就存在着无数个我们的分身,他们的人生轨迹各不相同。
或者像玻姆力学的支持者那样说,这些分支都存在,但只有一个分支是我们真正经历的,其他都是幽灵分支。到这里,我们就碰到了一些远比量子力学古老的问题,可以追溯到几千年前:我们的主观体验的本质是什么?它与物理世界有什么关系?量子力学没有回答这些问题,但它给这些千年之谜增添了新的维度。
量子计算从某个角度看,只是量子力学定律的一个新应用,这些定律从 1926 年就确立了。但从另一个角度看,量子计算为理解量子力学本身提供了最清晰的语言。它改变了很多人教授量子力学的方式。我觉得它降低了理解这门学科基础的门槛,现在只需要会操作矩阵和向量就够了。
而且,建造一台大规模量子计算机,可能会是我们能看到的对量子力学最戏剧性的检验。到现在还有一些怀疑论者说我们永远不会成功,要么是因为我们完全理解错了量子力学,要么是因为量子力学本身就是错的。我对这些人说:我希望你们是对的,因为如果你们是对的,这将是物理学的一场革命。量子计算机按照理论预言那样工作,反而是更保守、更无聊的可能性。
当然,不管怎样,我们都想知道真相。如果你同时解决了建造容错量子计算机和通用人工智能这两个问题,假设你有了一个大家都认为有意识的通用人工智能——也许是 GPT-8 吧——那 David Deutsch 40 多年前提出的一个观点就变得很有意思:我们似乎可以用实验来检验多重世界理论了。我们可以把 AGI 加载到量子计算机上,让它进入两种不同思维状态的叠加,然后做一个测量来证明它确实处于叠加态。这时候,只要我们承认这个 AI 是有意识的,我们就必须承认意识可以像多重世界理论说的那样存在于叠加态中。
当然,你也可以否认这个 AI 有意识,或者干脆否认任何 AI 都可能有意识。但从那时起,量子力学的含义这个问题和意识从何而来这个问题就完全纠缠在一起了。所以说,这些研究确实触及到了人类思考的最大谜题。
三年从小学到研究生水平,没人能预测AI的极限
主持人:说到意识,您怎么看 Roger Penrose 的理论?他认为意识可能与量子效应有关。
Orch-OR 理论认为我们的意识可能与大脑中非常微小的结构有关,这些结构叫做微管,是神经细胞内部的一种支撑结构。根据理论,微管中可能会发生一些量子现象,并在特定条件下突然变化或“坍缩”,从而产生了我们所体验到的意识感觉。
Scott Aaronson:我很佩服 Penrose 敢于提出这些问题。1989 年他写的《皇帝新脑》对我影响很大。那时候连 Shor 算法都还没有,量子计算还不是一个研究领域,但他已经在明确讨论这些问题了。
他提出了很多其他问题:认知的物理基础是什么?我们能不能把神经元简单地看作经典计算元件?还有没有其他物理学在起作用?他把可计算性理论、复杂性理论都带进来,比如探讨曼德博集合在什么意义上是不可计算的。这些问题中有些甚至对科学产生了实质影响。
所以我很欣赏 Penrose 提出问题的方式。但当他声称找到了这些问题的具体答案时,我就没那么赞同了。后来 Penrose 遇到了 Stuart Hameroff,他是个麻醉师,说:“我知道关键在哪里。关键是微管,这种存在于很多细胞中而不只是神经元中的结构元件。神经元中的微管一定对新的物理学很敏感。”
然后 Penrose 说,从哥德尔不完备定理出发,我们光靠思考就能推导出大脑必须是不可计算的。他是怎么得出这个结论的呢?他说,任何计算机程序如果只是在推导一组公理的结果,就永远不可能看出这些公理是否相容。但我能在脑子里想象正整数,就能看出皮亚诺算术公理是相容的。我看不出任何计算机怎么能做到这一点。
从一开始我就认为这个论证是无效的。因为艾伦·图灵在 75 年前就给出了答案:哥德尔定理告诉我们,没有任何形式系统能既全知又永不犯错。但人类也会犯错啊。如果我们允许自己犯错,允许说“我不知道”,那么我们也应该给计算机这样的自由。
然而,现在的 GPT 已经能很智能地讨论哥德尔定理和相关的所有问题了,包括 Penrose 自己关于哥德尔定理的论证。GPT 会犯错吗?当然会。但像 Terry Tao 这样的数学家说过,它至少达到了一般研究生的水平。三年前它可能还在上小学,现在已经读研究生了。进步的速度就是这么快。所以,我实在看不出为什么有人能自信地预测,5 到 10 年后我们不会有能帮我们写研究论文的 AI,不会有能做原创数学研究的 AI……我觉得这种论证根本站不住脚。
但 Penrose 却确信大脑一定在做某种不可计算的事情,而且他够 懂物理学,知道现有的物理定律做不到这一点,一定是别的什么东西导致了这种现象。所以他搬出了量子引力,这是我们唯一还不理解的东西,所以一定是量子引力——但量子引力怎么可能影响大脑呢?所以根据麻醉医生 Hameroff 的说法,一定是通过微管。
如此一来,他就得到了一个理论,但这个理论的每一步我都不认同。我不认同他最初从哥德尔定理出发的动机,不认同他把图灵不可计算性和量子引力联系起来,也不认同他在我们目前的认知水平下就断定微管对这类效应敏感。
我确实认为人脑中存在着一个大谜题。但至少 30 年来,我一直没见到研究它产生了什么科学成果。
宇宙最多只能存储10^122个量子比特,这就是终极计算极限
主持人:那您觉得计算在我们理解宇宙方面扮演什么角色?您认为宇宙本身在根本上是计算性的吗?
Scott Aaronson:说宇宙是台计算机,从某种意义上说几乎显得有点无聊了。
现代对计算机可能性的理解已经如此宽泛,以至于我们得问:宇宙要做什么才能算不是计算机?才能算不是计算性的?比如说Penrose的想法至少让我们能具体讨论这个问题,因为他认为物理定律允许解决图灵不可计算的问题。
我说过,我不认为他有什么好证据支持这个观点。但就算这是真的,假设我们在海滩上发现了一个神奇的盒子,能解决停机问题或其他不可计算的问题。我们仍然可以说,这只是告诉我们宇宙还是台计算机,只不过是比图灵机更强大的计算机。如果你的计算概念足够宽泛,说宇宙是一种计算就像说宇宙是上帝脑海中的一个想法一样——这种说法太宽泛了,甚至无法证伪。不过话说回来,在过去半个世纪里,物理学和计算机科学的交叉确实产生了令人惊叹的思想成果。
当你开始问一些具体问题时,比如如果我们选择从计算的角度思考宇宙,那它是什么样的计算机?能存储多少比特?每秒能执行多少次运算?它能高效解决什么类型的问题?是否满足丘奇-图灵论题?这些问题每一个都极其富有成效。
我们对物理定律的一些最深刻认识,来自 20 世纪 70 年代 Bekenstein 和史蒂芬·霍金关于黑洞的论证。这些论证从根本上限制了在有限空间区域内能存储多少比特信息。基本上说,每平方米的表面积最多能存储大约 10^69 个比特或量子比特。如果你试图存储更多信息,就会在那个区域投入太多能量,超过施瓦西极限,导致区域坍缩成黑洞。
同样,看起来每个普朗克时间(大约 10^-43 秒)最多只能执行一次运算。如果你想让计算机以更快的频率运行,比如超过每秒 10^43 次运算,所需的能量又会让它坍缩成黑洞。所以普朗克尺度——10^-43 秒的时间和 10^-33 厘米的长度,似乎给时空本身的最小分割提供了一个基本界限。
乍一听,你可能会说这就像发现了时空的像素一样,发现了某种潜在的离散结构。但事情不可能这么简单,因为宇宙不可能就是一个像素网格,那样就不满足物理定律要求的对称性了,比如旋转对称性或者特殊相对论的洛伦兹对称性。但研究量子引力的人似乎都同意一点:必须遵守 Bekenstein 限制。也就是说,在任何有限的空间区域内只能存储有限数量的比特,而不是无限多。
现在,我们可以把这个结论和 1998 年的重大发现结合起来:宇宙存在暗能量,这种力在大尺度上推动星系分离。如果暗能量真的是宇宙常数,那么我们能观测到的宇宙似乎永远被限制在大约 200 亿光年的半径内,因为更远的物体离我们的速度太快,它们发出的信号永远无法到达我们这里。
如果你把 Bekenstein 限制应用到整个可观测宇宙,就得到大约 10^122 次方这个数字。这就是在我们的宇宙中,任何计算或实验所能涉及的比特或量子比特的上限。当然,这是否限制了宇宙本身?假设有外星人或者神在模拟我们,他们是不是只有 10^122 个比特可用?不一定。毕竟我们说的只是宇宙中我们能观察到的部分,这可能远远不是全部。但至少我们现在能说点什么了,能做出这种把物理学和计算机科学联系起来的可记录定量陈述。这是我们直到 1998 年才能做到的事情。
然后你还可以问,如果宇宙是台计算机,那是什么类型的计算机?一些人试图用量子力学来说明宇宙不可能是计算机,因为计算机模拟宇宙的速度会呈指数级下降。这个论证有点牵强。首先,谁说模拟我们宇宙的计算机(如果存在的话)就不能是量子计算机,或者是比量子计算机更强大的东西呢?谁说那个宇宙的物理定律和我们的一样呢?
其次,就算是普通的经典计算机,也许在它那里的一万亿年才能模拟我们这里的一秒钟。谁能说不是这样呢?但至少量子计算的发现让我们能说点什么:如果你想用经典计算机模拟我们的宇宙,而且量子力学是普遍有效的,那么这个模拟相比宇宙本身确实会有指数级的减速。我觉得很神奇,即使加上各种限定条件,我们也能做出这样把物理学和计算机科学联系起来的陈述。
主持人:“计算复杂性”这个概念,对于理解人类知识的极限和现实本身的结构而言,阐释了什么道理?一些问题即使在原则上也很难解决,这意味着什么?
Scott Aaronson:一个问题难不难,总是相对于我们用来解决它的资源来说的。比如说,分解大数这个问题,就我们所知,对现有的经典计算机来说很难,但对量子计算机来说就不难。所以物理定律对这个问题也是有话要说的。
至于什么是可计算的、什么是不可计算的,这些原则理论上也可能被实验推翻。但实际上,图灵和他的同事们在 20 世纪 30 年代提出的理论到现在都站得住脚。所以如果某个问题在图灵意义上不可计算,那很可能就是说,在我们这个宇宙的物理定律下,根本不存在能普遍解决这个问题的算法。
这适用于停机问题,就是判断一个给定程序是否会终止运行;也适用于解丢番图方程,比如像费马大定理那样,给你一个方程问它是否有整数解;还适用于给你一组砖块,问它们能不能铺满整个平面。这些都是不可计算问题的例子。所谓不可计算,就是说不存在任何算法、任何计算机程序能正确解决这类问题的任意实例。
能做出这样的断言其实很了不起。这主要归功于一些自指论证,可以追溯到哥德尔定理,甚至更早的说谎者悖论。基本思路是说,如果真有程序能解决这类问题,你就能让这个程序预测自己的行为,然后做相反的事情。这会导致矛盾,所以我们推断这样的程序不可能存在。
不过人们经常把“不存在通用算法”和“永远无法知道具体答案”混为一谈,这是个常见的误解。即使停机问题从总体上说是不可计算的,这并不意味着对于任何具体的程序,我们都无法判断它是否会停机。显然,对很多程序来说我们是能判断的,有时候看一眼就知道“啊,这里有个无限循环,这个程序永远不会停”。
事实上,数学家们证明重要定理的时候,往往可以理解为在说某个特定的程序会永远运行下去。比如说 Andrew Wiles 在 30 年前证明费马大定理,你可以把它理解成:如果你写个程序去寻找费马大定理的反例,也就是系统地检查所有数字组合,让它找到反例就停下来,那这个程序会永远运行下去。
所以说,通过足够的智慧,我们经常能解决停机问题的特定实例。哥德尔定理告诉我们,在任何给定的公理系统中,总会有一些命题既不能证明也不能否证。但即使这样,这些命题在一个更大的公理系统中可能是可以证明或否证的。然后这个更大的公理系统又会有它自己的不可证明命题,这样无限下去。所以说,我们需要不断添加新公理,这个过程没有尽头。但这也不意味着我们能明确指出某个算术命题是“绝对不可知的”。
这就是自从哥德尔以来我们所处的奇特境地。人们可以争论这在哲学上意味着什么,但至少这些基本事实是清楚的。
量子力学告诉我们,就算是上帝也只能算概率
主持人:量子现象的随机性是否意味着,我们对宇宙能计算和预测的程度是有限的?
Scott Aaronson:显然我们的预测能力是有限的。即使没有量子力学,这种限制可能也会存在,只是源自混沌理论,源自对初始条件的敏感依赖。因为我们永远无法以无限精度测量粒子的位置或速度。在经典物理系统中,混沌告诉我们,对当前状态认知中哪怕最小的误差都可能随时间指数增长。这就是著名的蝴蝶效应 - 如果你不知道一只蝴蝶的确切位置,那么你可能也无法预测是否会有飓风、谁会赢得下届总统大选,甚至是会有战争还是和平。这些都可能是那只蝴蝶引起的连锁反应。
这也是为什么在所有时间旅行的故事里,人们总说“小心别改变任何东西”,“每块石头都得放回原位”,否则可能改变历史——但这其实很傻。事实是,光是你在那里,扰动空气分子,就已经改变了历史。
这种情况在经典物理中就存在。但如果宇宙是经典的,我们至少可以说,所有粒子都有某个确定的状态,如果你知道这个状态,或者说如果有个“拉普拉斯妖”把它输入计算机,那么原则上这个“妖”就能知道整个未来,也知道整个过去。但量子力学告诉我们,即使你想象有这样一个存在于宇宙之外的“妖”,知道整个宇宙的量子态,能前后运行薛定谔方程,它也只能预测概率,而不是确定性的结果。
所以量子力学是我们目前理解的物理定律中,唯一一个把概率直接写进基本法则的。具体来说就是玻恩规则,它告诉我们不同状态的振幅如何转化为测量结果的概率。这是目前已知的物理基本定律中唯一一个提到概率的。多世界诠释的支持者们多年来一直在试图从量子力学的确定性部分推导出玻恩规则。但我觉得这些尝试都没有真正成功,除非把结论偷偷带入前提。
看来量子力学确实在告诉我们,概率是宇宙的一个基本现象,或者至少是我们经历的宇宙的基本现象。贝尔不等式更是给这个结论加了一个惊叹号,它排除了任何局域隐变量来解释量子力学的可能性。所以我们知道,如果量子力学下面真有某种确定性,就像爱因斯坦和其他人多年来希望的那样,那这种确定性也必须依赖超光速通信来协调纠缠粒子的测量结果。
所以现在的情况是,即使拉普拉斯妖也只能预测概率。但也许你会说,这没什么,我能接受。现代的预测专家,比如 Nate Silver,已经让我们习惯了这一点——最好的未来预测者就是用概率思维的,他们不说确定性的结果,而是给出可能结果的范围。但接下来还有一个问题:你能不能至少把这些概率算对?
量子力学对这个问题也设了限制。因为要知道正确的概率,你得知道整个宇宙的当前量子态。当然,上帝或者宇宙外的“妖”可能知道这个,但我们这些在宇宙里面的人是不可能完全知道的,因为做测量会扰动量子态,改变它。
量子力学的一个基本原理叫不可克隆定理,它说你不能完美复制一个未知的量子态。要复制它,你得先测量它,但测量不仅不能产生一个拷贝,反而可能破坏你手上的那个原件。
如果你把“我们不可能精确知道宇宙当前的量子态”这一点,和“我们对状态的任何不确定性都可能因混沌效应而被放大”这一点结合起来,你就得到了一个很强的不可预测性。也许我们甚至都不能准确计算出未来事件的概率。作为生活在这个宇宙里、受制于物理定律的生物,我们就是有这个局限。
主持人:说到随机性,考虑到随机线性代数这个领域正在快速发展,您觉得线性代数的未来是随机的吗?
Scott Aaronson:线性代数是数学的一个分支,数学是有种永恒的品质的。19 世纪 Grassman 证明的关于线性代数的定理到今天都完全有效。你现在还可以用同样的教科书来教。
真正有意思的是,我觉得量子力学可能是线性代数最戏剧性的应用。它展示了整个宇宙都在运行线性代数——线性代数加上概率。
我本科学习线性代数的时候,虽然会做题,但总是不明白:为什么我们要学特征向量?为什么要学奇异值分解?为什么偏偏要学这些概念?学了量子力学之后,这些概念每一个都有了清晰的物理含义。啊,原来是在说这个。
每次我教本科生量子信息,我都发现除了其他的那些让人大开眼界的内容,这门课还能帮助学生更好地理解线性代数。你能看到线性代数和概率是怎么完美结合的。比如说为什么我们要用酉矩阵?因为这些矩阵能保持概率,能确保概率总是加起来等于一。当然,线性代数里有随机算法,也有确定性算法,在计算机科学里我们都会研究。
主持人:最后一个问题。从哲学角度来说,“信息”这个概念是什么意思,特别是在量子力学中?量子力学是否暗示了一种更基本的信息理解方式?
Scott Aaronson:当人们说“我们发现物理学其实是关于信息的”这类话时,这有点像我们之前讨论的“宇宙是不是计算机”那个问题。你得问:物理学要怎么做才能算不是关于信息的?因为信息说到底就是,只要我们有一个能处于多个状态的系统,而我们不知道它在哪个状态,然后我们学到了它的状态 - 这就是信息。 这似乎是物理学这个事业本身固有的东西。
你可以说,比特就是衡量惊喜的单位,衡量你对一个系统不知道多少,或者可能发现多少。如果一个系统可能有 n 种配置,我们就说它包含 log(n) 比特的信息。物理学家们在计算机革命之前就遇到这个概念了,他们是在研究热力学中的熵的时候发现的。他们发现研究蒸汽机需要理解熵,然后玻尔兹曼发现熵其实就是信息的度量——需要多少比特才能描述这些粒子在做什么。这是个极其重要的洞见。
但我要说的是,不管物理定律是什么样的,这都会是个重要洞见。当然,量子力学出现后改变了一些信息的规则,因为它让我们可以讨论一种更普遍的信息,即量子信息,用量子比特而不是比特来度量。这确实在很多有趣的方面改变了一些东西。
但你可以说,一旦我们做了测量,最终我们还是在把量子信息转换成经典信息。 有一些可能的结果,当我们看到某个结果时,我们就减少了不确定性,做了贝叶斯更新,诸如此类。这就是我们说的信息。对我来说很难想象任何宇宙会没有信息,除非是某种佛教式的虚无,或者说上帝的某种统一性。但只要有任何形式的差异,有反事实的可能性,有系统可能存在的不同方式,而我们发现了它实际处于哪种方式——那我们就是在谈论信息。
主持人:太精彩了。Aaronson 教授,感谢您参与这次精彩的讨论。感谢您抽出时间,这真是一次令人惊叹的对话。
图片来源|网络
热门跟贴