拿起一颗球,用力扔向墙面,它会遵循固定的轨迹反弹回来,你只需伸出手,就能精准地再次抓住它。这一幕日常场景,是我们对世界运行规律最直观的认知:物体的运动有迹可循,不会凭空消失,也不会毫无征兆地变成另一种东西。这种完全可预测、符合直觉的行为背后,是经典物理学构建的坚实框架在发挥作用。
从伽利略的自由落体实验到牛顿的万有引力定律,再到麦克斯韦的电磁理论,经典物理学用一套简洁而严谨的规则,解释了从苹果落地到行星公转的所有宏观现象。在1900年量子力学诞生之前,它就是物理学的全部。当时的物理学家普遍相信,无论是微小的尘埃粒子,还是浩瀚宇宙中的恒星行星,控制球反弹的那套经典规则都能无差别地描述宇宙中的一切事物——世界就像一台精密的钟表,每一个零件的运转都遵循既定的规律,只要掌握了初始条件,就能精准预测其未来的所有状态。
然而,当科学的视角深入到微观世界,这台“精密钟表”的表象被彻底打破。
1900年,普朗克为解决黑体辐射问题提出能量量子化假说,标志着量子力学的正式诞生。在随后的一个多世纪里,尤其是过去四十年,随着观测技术的不断进步,我们所认知的世界逐渐变得陌生而诡异。在微观尺度下,物体可以同时出现在两个地方,粒子能像波一样扩散传播,甚至两个相距遥远的粒子之间能产生瞬间的相互影响。量子世界的这些怪诞特性,早已超越了经典物理学的认知边界,成为科学界乃至大众津津乐道的传奇。但直到今天,这些怪诞现象的起源仍然是一个悬而未决的谜题。一代又一代的理论物理学家前赴后继,试图破解一个核心问题:究竟是什么赋予了量子世界这种明显违背直觉的“量子属性”?
答案至今仍隐藏在迷雾之中,但这种认知上的空白,却深刻影响着我们对现实本质的理解,也制约着我们将量子现象转化为实用技术的能力。一个世纪以来,物理学家们提出了无数种假说,从哥本哈根诠释到多世界理论,从隐变量理论到退相干理论,每一种假说都试图勾勒出量子世界的真实面貌,却又都存在无法弥补的缺陷。
不过,随着实验技术的突破和理论研究的深入,我们似乎正在一步步接近这个终极答案。在众多探索方向中,量子计算的发展成为了照亮迷雾的一束光——这种被认为将颠覆传统计算模式的新技术,其核心优势恰恰源于量子世界的怪诞特性。如果我们能通过量子计算的研究,揭开量子属性的本质,那么一场不仅限于计算领域的科技革命,将为期不远。
追溯量子力学的发展脉络,一切都绕不开阿尔伯特·爱因斯坦。
20世纪初,经典物理学看似已经完美解释了所有已知现象,但在微观领域和高速领域,却出现了一系列无法解决的“乌云”。正是在这样的背景下,以爱因斯坦为代表的一批年轻物理学家,掀起了一场物理学革命。
1905年,被后人称为“爱因斯坦奇迹年”,这一年他发表了三篇改变物理学走向的论文,其中一篇关于光电效应的研究,首次提出了“光量子”假说。当时,物理学界早已普遍接受光的波动学说,麦克斯韦的电磁理论也已证明光是一种电磁波。但爱因斯坦的研究指出,光的传播和吸收并非连续的波动,而是以离散的“粒子”形式进行的——这种粒子被后来的物理学家命名为“光子”。光电效应的实验现象也充分证明了这一点:当频率足够高的光照射到金属表面时,会瞬间打出金属中的电子,而光的强度仅影响打出电子的数量,不影响电子的能量,这与波动学说的预测完全不符,却能被光量子假说完美解释。
爱因斯坦的这一发现,打破了“光要么是波要么是粒子”的经典认知,首次提出了光的“波粒二象性”。而更让物理学界困惑的是,随后的实验发现,这种二象性并非光的专属特性。当物理学家用电子束进行双缝干涉实验时,诡异的现象出现了:如果不观测电子的运动轨迹,电子束会像波一样产生干涉条纹;而如果试图观测电子通过哪条缝,干涉条纹就会瞬间消失,电子则表现出粒子的特性。这一实验表明,电子这种典型的“粒子”,也同样具有波动属性。光和物质的波粒二象性,彻底颠覆了经典物理学对“粒子”和“波”的严格划分,迫使物理学家重新思考光和物质的本质结构。
为了描述微观粒子的这种诡异行为,物理学家们引入了“波函数”的概念。薛定谔在1926年提出的薛定谔方程,成为了描述波函数演化的核心方程。
根据量子力学的哥本哈根诠释,微观粒子的运动状态无法用经典力学中的“位置”和“速度”来精准描述,只能用波函数来表示——波函数的平方,代表了粒子在某一位置出现的概率。在没有被观测之前,粒子的波函数处于“叠加态”,也就是说,粒子同时存在于所有可能的位置,所有这些可能性都同时真实存在。只有当我们对粒子进行观测时,波函数才会瞬间“坍缩”,粒子才会确定地出现在某一个位置。这种用概率和波函数代替确定结果的描述方式,催生了一系列令人震惊的量子效应,其中最典型的就是“量子隧穿”。
在经典物理学中,一个粒子如果没有足够的能量,就无法越过一道高于其能量的势垒,就像一个人无法凭空跳过一堵足够高的墙。但在量子世界中,粒子的波函数会延伸到势垒的另一侧,这意味着粒子有一定的概率“穿越”势垒,出现在势垒的另一边——这种看似违背能量守恒的“隧穿”现象,并非理论推测,而是已经被实验证实的事实,现代半导体器件中的隧道二极管,就是利用量子隧穿效应工作的。
量子世界的这种概率性描述,让许多物理学家感到难以接受,其中最主要的反对者,正是爱因斯坦。尽管他本人提出了光量子假说,为量子力学的发展奠定了基础,但他始终无法认同哥本哈根诠释中“概率主导宇宙”的观点。爱因斯坦坚信,宇宙的运行规律是确定的,量子力学的概率性描述,只是因为我们尚未发现某些“隐变量”——只要找到这些隐变量,就能像经典物理学一样,精准预测微观粒子的运动状态。他曾多次与玻尔等哥本哈根诠释的支持者展开辩论,其中最著名的一次,就是他提出的“EPR悖论”。
1935年,爱因斯坦与普林斯顿大学的两位同事鲍里斯·波德斯基、内森·罗森合作,发表了一篇题为《能认为量子力学对物理实在的描述是完备的吗?》的论文,提出了著名的EPR悖论(以三位作者的名字命名)。这篇论文通过一个思想实验,揭示了量子力学概率性描述背后的矛盾。爱因斯坦等人指出,在适当的条件下,两个微观粒子经过相互作用后,它们的波函数会紧密地“绑定”在一起,形成一种特殊的状态——这种状态被薛定谔随后命名为“量子纠缠”。处于纠缠状态的两个粒子,无论相距多远,只要对其中一个粒子进行观测,确定了它的状态,另一个粒子的状态就会瞬间被确定,哪怕它们之间相隔光年之远。
在经典物理学的框架中,这一现象是完全不可理喻的。经典物理学认为,任何信号的传播速度都不能超过光速,这是相对论确立的基本准则。这意味着,两个相距一光年的物体,要产生相互影响,至少需要一年的时间——信号需要用一年的时间才能从一个物体传到另一个物体。
但根据EPR悖论的描述,纠缠粒子之间的相互影响是瞬间发生的,完全突破了光速的限制。爱因斯坦将这种看似违背相对论的现象,斥之为“鬼魅般的超距作用”,并以此证明量子力学的描述是不完备的,必然存在尚未被发现的隐变量。
与爱因斯坦的担忧不同,另一位量子力学的先驱埃尔温·薛定谔,却从量子纠缠中看到了量子世界与经典世界的本质区别。他在1935年给爱因斯坦的信中写道,量子纠缠是量子力学的“特征性质”,正是这种特性,将量子世界与经典世界明确区分开来。在薛定谔看来,量子纠缠的诡异之处,恰恰是破解量子属性本质的关键——如果能搞清楚纠缠的起源,或许就能明白为什么量子世界与经典世界如此不同。但在随后的几十年里,物理学家们对纠缠的理解始终停留在理论层面,由于实验技术的限制,无法通过实验验证EPR悖论的正确性,也就无法判断爱因斯坦的隐变量理论与哥本哈根诠释孰是孰非。
爱因斯坦等隐变量理论的支持者认为,纠缠粒子的状态其实在它们相互作用分离的那一刻就已经确定了,就像一副手套被分别装在两个盒子里,然后送到宇宙的两端。当你打开其中一个盒子,发现里面是右手套时,你会瞬间知道另一个盒子里是左手套——这并不是因为两个手套之间存在“超距作用”,而是因为手套的“左右手属性”在分离时就已经确定了,观测只是揭示了这个早已存在的事实。这种理论既解释了纠缠现象,又保持了经典物理学的“局域性”(即物体的相互影响不能超过光速),因此得到了不少物理学家的支持。
这一僵局直到1964年才被打破。当时,北爱尔兰物理学家约翰·斯图尔特·贝尔发表了一篇具有里程碑意义的论文,提出了著名的“贝尔不等式”。贝尔指出,通过设计特定的实验,可以区分真正的量子纠缠和隐变量理论所描述的“经典纠缠”。如果实验结果满足贝尔不等式,就说明隐变量理论是正确的,量子力学的描述是不完备的;如果实验结果违背贝尔不等式,就说明隐变量理论不成立,量子力学的非局域性是真实存在的。贝尔的这一理论,将原本停留在哲学层面的争论,转化为了可以通过实验验证的科学问题。
从1972年开始,物理学家们陆续开展了一系列验证贝尔不等式的实验。最早的实验由美国物理学家克劳瑟等人完成,他们利用光子对的纠缠进行实验,结果首次证明了贝尔不等式被违背。但由于当时的实验设备存在缺陷,实验结果存在一定的“漏洞”——比如实验中光子的探测效率不高,可能导致统计结果出现偏差;或者两个观测装置之间的距离太近,存在信号传递的可能。为了消除这些漏洞,物理学家们不断改进实验方案。
2015年,荷兰代尔夫特理工大学的团队完成了一项“无漏洞”的贝尔实验:他们将两个纠缠光子分别发送到相距1.3公里的两个观测站,实验结果明确违背了贝尔不等式,且消除了之前所有的实验漏洞。这一实验最终证明,量子纠缠是一种真实存在的量子现象,隐变量理论是错误的,量子世界确实具有“非局域性”——两个纠缠粒子之间的相互影响,确实可以超越空间的限制,瞬间发生。
“这些实验决定了任何拯救经典实在论的希望的命运。”伦敦大学戈德史密斯大学从事量子信息理论研究的马蒂·霍本评价道。量子非局域性的证实,让我们对量子世界的认知又深入了一步,但这并没有彻底揭开量子属性的本质。物理学家们很快发现,非局域性并不能解释所有的量子怪诞现象。首先,非局域性只存在于两个或多个粒子的纠缠系统中,对于单个粒子的量子效应——比如量子隧穿、单粒子的叠加态等,非局域性完全无法解释。其次,除了非局域性,量子世界还存在其他违背经典物理学的特性。这意味着,非局域性只是量子属性的一个方面,而非全部。要找到量子世界的核心密码,我们还需要继续探索。
这个问题的答案,再次将我们的目光拉回爱因斯坦和EPR悖论。EPR论文及其支持者在提出隐变量理论的同时,还隐含了一个重要的假设:量子实验遵循与经典实验相似的规则——任何物体都具有固定的、独立于观测的内在性质,观测的作用只是揭示这些性质,而不会改变它们。就像左手套无论是否被观测,它的“左手属性”都是固定不变的,观测环境的变化不会影响它的本质。这种假设在经典世界中是完全成立的,但在量子世界中,它是否仍然成立?
贝尔不等式的实验验证,不仅否定了隐变量理论,也间接挑战了这一假设。
实验结果表明,对于纠缠粒子对来说,对其中一个粒子的观测结果,不仅取决于观测的方式,还与对另一个粒子的观测方式密切相关。换句话说,单个粒子的“属性”并不是固定不变的,而是取决于整个实验的“情境”——包括对其他粒子的观测行为。这种“属性依赖于情境”的特性,被物理学家们称为“情境性”。
为了更直观地理解情境性,我们可以举一个经典的例子:假设我们要测量一个物体的重量,在经典世界中,无论我们是用弹簧秤测量,还是用电子秤测量,无论测量时周围的温度是高是低,这个物体的重量都是固定不变的——它的“重量属性”是独立于测量情境的。但在量子世界中,情况完全不同:一个量子粒子的“属性”,比如自旋方向,会随着测量情境的变化而变化。如果我们改变测量仪器的设置,或者改变对其他纠缠粒子的测量方式,得到的结果可能会完全不同。这意味着,量子粒子就像一个“不可靠的证人”,它给出的答案不仅取决于你问的问题(观测方式),还取决于你问它的情境(整个实验系统的状态)。
在加拿大周边理论物理研究所的安娜·贝伦·塞恩斯看来,情境性才是更根本的量子现象,而非局域性仅仅是情境性在多粒子系统中的一种表现形式。如果这一观点成立,那么情境性就可能是我们一直在寻找的“量子核心密码”。但要证实这一点,我们需要像贝尔为非局域性设计实验验证方案一样,为情境性设计一套可验证的实验准则。具体来说,我们需要在两个不同的情境下,对同一个量子系统进行相同的测量,然后比较测量结果——如果结果存在差异,就说明量子系统具有情境性;如果结果完全相同,就说明情境性不存在。
然而,设计这样的实验并不容易。最大的挑战在于“实验噪声”——即使是最精密的实验设备,也会存在微小的缺陷,这些缺陷会导致测量结果出现随机误差。我们如何区分测量结果的差异,是源于量子系统本身的情境性,还是源于实验设备的噪声?这一问题困扰了物理学家们多年。直到2016年,两个来自不同国家的研究团队——一个是奥地利因斯布鲁克大学的团队,另一个是美国国家标准与技术研究院的团队,分别独立设计出了能够有效排除实验噪声的情境性验证实验。
这两个团队采用的实验方案,都利用了量子比特系统(最简单的量子系统),通过巧妙的实验设计,将实验噪声的影响控制在可量化的范围内。实验结果表明,在排除了所有可观测的实验噪声后,两个不同情境下的测量结果仍然存在显著差异——这一结果明确证明,量子世界中的物体确实具有情境性。“这些实验是量子物理学史上的一个里程碑。”塞恩斯评价道。它们不仅证实了情境性的存在,也为我们理解量子属性的本质提供了新的方向。
尽管情境性在量子世界中扮演着如此核心的角色,但在量子力学诞生后的近一个世纪里,它却一直没有得到应有的重视。这其中的原因是多方面的。首先,爱因斯坦等量子力学的先驱者,始终将目光聚焦于非局域性带来的“超距作用”问题,而忽略了情境性的重要性——缺乏权威科学家的关注,使得情境性的研究长期处于边缘状态。其次,正如霍本所说:“这在很大程度上可以归结为令人震惊的价值。”与非局域性直接挑战“空间、时间、因果关系”等经典物理学的核心概念不同,情境性带来的冲击相对间接,因此在很长一段时间里,并没有引起物理学家们的足够重视。但随着量子计算研究的深入,情境性的重要性逐渐凸显,它的“边缘地位”也即将被彻底改变。
2019年,曾被不少业内人士预测为“大规模量子计算机元年”——当时,谷歌、IBM、英特尔等科技巨头和众多初创企业,都在量子计算领域投入了巨额资金,展开了激烈的竞争。根据这些企业的预测,大规模量子计算机将利用量子力学的特性,完成许多传统超级计算机无法完成的任务:从模拟复杂的量子化学反应,助力新药物和新材料的研发,到优化全球物流网络和交通系统,再到破解现有的加密体系。但量子计算机的核心优势究竟来自哪里?这个问题,与“量子属性的本质是什么”紧密相连,也成为了量子计算领域的核心谜题。
要理解量子计算的优势,我们首先需要明确传统经典计算机的工作原理。从本质上来说,计算机是一种操纵信息的设备——无论是计算、存储还是通信,核心都是对信息的处理。在经典计算机中,信息的基本单位是“比特”,每一个比特只有两种可能的状态:0或1,分别对应晶体管的“关断”和“通电”状态。经典计算机通过将大量比特组合在一起,按照预设的逻辑规则进行运算,就能完成各种复杂的任务——从简单的加减乘除,到模拟宇宙的演化。例如,一台经典超级计算机要破解一个128位的加密密钥,需要逐一尝试所有可能的组合,其运算量会随着密钥长度的增加呈指数级增长,这在实际操作中是几乎不可能完成的。
量子计算机的信息基本单位是“量子比特”,它的核心优势就源于量子比特的量子特性。与经典比特只能处于0或1的确定状态不同,量子比特的波函数可以处于0和1的“叠加态”——也就是说,一个量子比特可以同时表示0和1两种状态。基于这一特性,不少人对量子计算的优势做出了简单化的解读:经典计算机一次只能处理一种状态的信息,而量子计算机通过叠加态,可以同时处理所有可能的状态信息。例如,一个2个量子比特的系统,可以同时表示4种状态;一个10个量子比特的系统,可以同时表示1024种状态;随着量子比特数量的增加,量子计算机能够同时处理的状态数量会呈指数级增长。因此,量子计算机可以“并行处理”所有可能的解决方案,从而在处理某些问题时,展现出远超经典计算机的速度优势。
“如果事情这么简单,量子算法的设计也会很容易。”美国约翰·霍普金斯大学的量子物理学家丹尼尔·霍华德直言,这种简单化的解读是完全错误的。事实上,量子计算机的叠加态并不能直接转化为“并行处理优势”——因为当我们对量子比特的状态进行观测时,波函数会瞬间坍缩,我们只能得到一个确定的结果,而不是所有叠加态的信息。要利用量子叠加态的优势,需要设计复杂的量子算法,通过量子纠缠、量子干涉等多种量子效应的协同作用,将有用的信息“筛选”出来。这也是为什么量子算法的研发如此困难的原因。
“事实是,尽管量子计算具有革命性的潜力,但它的力量之源仍然笼罩在神秘之中。”霍华德补充道,“即使对专家来说,理解量子计算机‘实际在做什么’也是一个难题。”在量子计算领域,存在一个奇怪的现象:有些量子算法的优势可以被明确验证,但有些所谓的“量子算法”,其核心功能却可以被经典计算机模拟。这意味着,仅仅利用叠加态、纠缠等量子现象,并不足以保证量子计算机的优势——只有当量子系统具备某些特定的核心特性时,才能真正实现对经典计算机的超越。“令人担忧的是,我们还没有一种强有力的方法来确定一个量子系统必须具备哪些必要条件和充分条件,才能看到相对于经典计算的优势。”悉尼大学的量子物理学家安吉拉·卡兰杰说道。
就在量子计算的核心优势陷入争议之际,情境性的研究为我们提供了新的思路。2014年,霍华德和他的合作者在《自然·通讯》上发表了一篇里程碑式的论文,首次提出了“情境性是量子计算核心引擎”的假说。为了验证这一假说,他们选择了一类被称为“稳定器电路”的简单量子系统作为研究对象。
稳定器电路是量子计算中最基础的电路模型之一,它的优点是结构简单、易于分析,但缺点也很明显——虽然它本质上是量子系统,但它的运算过程可以被经典计算机高效模拟。换句话说,稳定器电路不具备“通用量子计算”的能力,无法实现所有可能的量子算法,也无法展现出超越经典计算机的优势。而霍华德的团队通过理论分析发现,稳定器电路之所以能被经典计算机模拟,核心原因是它不具备情境性——它的量子比特状态虽然具有叠加态和纠缠特性,但这些状态并不依赖于观测情境,因此可以用经典的数学模型进行描述。
在此基础上,霍华德和他的同事进一步证明,如果对稳定器电路进行改进,赋予它产生情境性的能力——比如增加量子比特之间的非线性相互作用,或者引入更复杂的观测情境,那么稳定器电路就会从“可经典模拟”转变为“不可经典模拟”,从而具备通用量子计算的能力。“这一结果开辟了新的领域,并发现了量子计算机能力的一部分基础。”霍本评价道。这一研究成果,将情境性与量子计算的核心优势直接关联起来,也为我们理解量子属性的本质提供了新的视角。
那么,情境性是否就是量子计算加速的“秘密引擎”?对于这个问题,霍华德保持着谨慎的态度。他认为,目前量子计算的模型有很多种,不同模型的核心优势可能存在差异,因此不能简单地将情境性定义为所有量子计算优势的来源。但不可否认的是,至少在部分量子计算模型中,情境性是实现量子优势的必要条件。卡兰杰和她的合作者最近的研究,进一步证实了这一点。他们通过理论计算发现,量子电路所展现出的情境性的数量,与经典计算机模拟该电路所需的内存空间呈正相关——情境性越强,经典计算机模拟所需的内存就越大;当情境性达到一定阈值时,经典计算机将无法提供足够的内存进行模拟,而量子计算机则可以轻松处理。“这些结果告诉人们,建造量子计算机要使用显示情境性的系统来构建它,因为这些系统可以提供更多的计算能力。”卡兰杰说道。
情境性的重要性,远不止于量子计算领域。更重要的是,它为我们划分量子世界与经典世界的界限,提供了一个明确的标准。自量子力学诞生以来,“量子世界和经典世界的边界在哪里”就一直是物理学家们争论不休的问题。薛定谔曾认为,纠缠是区分量子世界和经典世界的关键——这种颠覆经典直觉的现象,足以说明它属于量子世界的范畴。但这种划分标准并不严谨,因为纠缠只是量子现象的一种,无法涵盖所有的量子特性。而霍华德、卡兰杰等人的研究表明,情境性可能是一个更严格、更普适的划分标准。
按照这一标准,量子物理学的核心并非由一系列零散的、违背经典直觉的现象(如叠加态、纠缠、隧穿等)组成,而是一种基于“情境性”的计算理论——量子世界的所有特性,其本质都是情境性的不同表现形式;而量子计算的优势,也正是源于情境性带来的信息处理能力的提升。这一观点彻底改变了我们对量子力学的认知:量子力学不再是一套“怪诞的理论”,而是一套更普适的信息处理理论,经典物理学只是量子物理学在“情境性可忽略”的宏观世界中的近似。
如果这一观点成立,那么当前全球范围内的大规模量子计算机竞赛,其意义将远超技术层面的突破。它不仅是为了研发一种更强大的计算设备,更是为了通过实验验证“情境性是量子属性的本质”这一核心假说。一旦我们通过量子计算的研究,彻底证实情境性的核心地位,那么我们将最终揭开量子世界的神秘面纱,完成量子力学与经典物理学的统一,为后续的量子科技发展奠定坚实的理论基础。
热门跟贴