20世纪是物理学迎来颠覆性变革的百年,人类对宇宙和物质的认知从宏观世界深入到微观领域,构建起全新的物理大厦。
这一世纪的物理学发展主要围绕三大核心方向展开:爱因斯坦的相对论重塑了人类对时空、引力的认知,规范场论揭示了基本粒子之间的相互作用规律,而量子力学则打开了微观世界的大门,颠覆了我们与生俱来的经典直觉。
如今,量子力学已成为现代物理学的基石,深刻影响着材料科学、信息技术、医学等多个领域的发展。在世界范围内量子力学研究蓬勃兴起的浪潮中,中国在该领域同样取得了令世界瞩目的科研成果——由中国科学技术大学潘建伟教授领衔的科研团队,在量子通信应用和量子计算机研发领域持续突破,走出了一条具有中国特色的量子科技发展之路,让“中国量子”成为全球科研领域的亮眼名片。
然而,当真正的量子科技还在科研实验室中不断攻坚克难、向产业化缓慢推进时,社会上却掀起了一股“量子热”,各类贴着“量子”标签的产品层出不穷,从“量子内衣”“量子能量吊坠”“量子鞋垫”,到号称能提升学习效率的“量子波动速读”设备,甚至还有宣称可治疗疑难杂症、延年益寿的“量子保健品”。
这些产品的厂家凭借夸张的宣传话术,抓住人们对健康、财富、学习能力提升的迫切需求,将“量子”包装成无所不能的“黑科技”,吸引了大量消费者争相购买。但事实上,这些所谓的“量子产品”,与真正的量子力学毫无关联,本质上只是蹭着量子理论热点、欺骗消费者的营销套路。
那么,量子到底是什么?量子力学的核心原理究竟是什么?真正的量子技术应用有哪些?那些泛滥的“量子产品”又藏着怎样的猫腻?
要理解量子,就必须从20世纪初经典物理学的困境说起。19世纪末,物理学界迎来了一个看似“完美”的时代,经典物理学的两大支柱——牛顿经典力学和麦克斯韦经典电磁学,已经能够解释当时人类观测到的绝大多数物理现象。
牛顿经典力学统治着宏观世界,从苹果落地到行星公转,从机械运动到天体运行,所有的运动规律都能在牛顿力学的框架内得到精准解释;麦克斯韦经典电磁学则统一了电、磁、光三大现象,预言了电磁波的存在,揭示了光的电磁本质,为后来的无线电通信、电力技术发展奠定了基础。
1900年,在物理学界迎接新世纪的庆祝会上,著名物理学家开尔文公爵(威廉·汤姆森)发表了一篇极具影响力的学术演讲。在演讲中,他自信地表示:“物理学的大厦已经基本建成,未来的物理学家只需要做一些修修补补的工作,把实验数据的小数点往后移动几位就可以了。”开尔文公爵的这番话,道出了当时物理学界的普遍共识——经典物理学已经发展到了顶峰,似乎没有什么未知的领域等待探索。
但话锋一转,开尔文公爵又面露难色,补充道:“不过,在物理学大厦的上空,还漂浮着两朵小小的乌云,它们或许会对这座完美的大厦造成一些困扰。
”这两朵“乌云”,看似微不足道,却最终引发了物理学史上的两场颠覆性革命,其中一朵“乌云”催生了相对论,另一朵则孕育了量子论。这两朵“乌云”,一朵是“以太漂移”实验的困惑,另一朵就是“黑体辐射”的难题。
当时的物理学家普遍认为,电磁波的传播需要一种名为“以太”的绝对静止介质,就像声波需要空气作为介质、水波需要水作为介质一样。
为了验证“以太”的存在,物理学家迈克尔逊和莫雷设计了著名的“迈克尔逊-莫雷实验”,试图检测地球在“以太”中运动时产生的“以太漂移”效应。但实验结果却令人震惊——无论实验装置如何调整,都无法检测到“以太漂移”的存在,这意味着“以太”可能根本不存在。这一实验结果给经典电磁学带来了巨大的冲击,成为经典物理学上空的第一朵“乌云”。
后来,爱因斯坦大胆抛弃了“以太”的假设,提出了狭义相对论,重新定义了时间和空间的关系,彻底解决了这朵“乌云”,为物理学开辟了全新的领域。
而第二朵“乌云”——黑体辐射问题,則直接催生了量子论的诞生。要理解黑体辐射,我们首先要明确什么是“黑体”。在物理学中,黑体是一个理想化的物理模型,它指的是一种能够完全吸收照射到它表面的所有电磁波,不会反射任何电磁波的物体。
简单来说,黑体就像一个“完美的吸收体”,无论外界照射过来的是可见光、红外线、紫外线,还是其他频率的电磁波,它都会全部吸收,不会有一丝反射。
在现实生活中,并不存在绝对的黑体,但一些物体可以近似看作黑体,比如太阳、烧红的铁块,以及带有小孔的密闭空腔(空腔黑体)——空腔内壁会吸收大部分电磁波,从小孔射出的电磁波就近似于黑体辐射的电磁波。
黑体辐射的核心特点是:黑体辐射出的电磁波,其波长(或频率)分布会随着黑体温度的变化而发生规律变化。温度越低,辐射出的电磁波波长越长,以红外线为主;温度越高,辐射出的电磁波波长越短,逐渐向可见光、紫外线过渡。
比如,烧红的铁块温度较低时,会发出暗红色的光;温度升高后,会发出橙红色、黄色的光;如果温度达到极高水平,就会发出蓝白色的光,同时辐射出大量的紫外线。
19世纪末,物理学家们试图用经典物理学的理论,推导出黑体辐射的波长分布规律。当时,有两位物理学家分别提出了相关公式:维恩提出了维恩定律,瑞利和金斯则提出了瑞利-金斯定律。
但令人遗憾的是,这两个公式都无法完全与实验数据相符。
维恩定律在高频区域(短波区域,如紫外线)与实验数据较为接近,但在低频区域(长波区域,如红外线)却存在明显的偏差;而瑞利-金斯定律则恰恰相反,在低频区域与实验数据吻合较好,但在高频区域却出现了严重的偏离——根据瑞利-金斯定律,当辐射频率趋向无穷大时,黑体辐射的能量也会趋向无穷大。
这一荒谬的结果,在物理学界被称为“紫外灾变”,它直接暴露了经典物理学在微观领域的局限性,成为经典物理学无法解释的难题。
为了解决“紫外灾变”的困境,德国物理学家马克斯·普朗克投入了大量的精力进行研究。普朗克出身于学术世家,自幼对物理学有着浓厚的兴趣,成年后专注于热力学和电磁学的研究。在研究黑体辐射问题时,普朗克尝试将维恩公式与玻尔兹曼熵公式相结合,通过数学推导,意外得到了一个全新的公式——普朗克黑体辐射定律。
令人惊喜的是,这个公式与实验数据完美吻合,无论是在高频区域还是低频区域,都能精准描述黑体辐射的波长分布规律。
但问题来了,这个完美符合实验数据的公式,却无法在经典物理学的框架内得到合理的解释。经典物理学认为,能量是连续的,就像水流一样,可以无限分割,物体辐射或吸收的能量也应该是连续变化的。
但普朗克的公式要想成立,就必须打破这一经典认知。在反复推敲和犹豫之后,普朗克做出了一个大胆到颠覆经典物理学的假定:黑体辐射出的电磁波能量,并不是连续的,而是一份一份、离散存在的。每一份能量都是一个基本单位的整数倍,这个能量的基本单位,普朗克将其命名为“能量量子”,简称“量子”。
普朗克提出,能量量子的大小与电磁波的频率成正比,频率越高的电磁波,其能量量子越大;反之,频率越低的电磁波,其能量量子越小。也就是说,物体辐射或吸收能量,只能以“量子”为单位进行,就像我们花钱只能以“元”为最小单位(忽略角、分),无法花0.5元以下的钱一样,能量的传递也只能是“量子化”的,无法进行无限分割。
这一大胆的假定,在当时的物理学界引起了轩然大波。因为它彻底推翻了经典物理学中“能量连续”的核心认知,与人类的日常直觉完全相悖。
我们的生活中,所有的事物似乎都是连续的:比如,温度的变化是连续的,从0℃升到10℃,会经过其间的每一个温度值;比如,物体的运动是连续的,从A点运动到B点,会经过A、B之间的每一个位置;再比如,水流的流动是连续的,我们可以无限分割水流的体积。这种“连续性”的直觉,深深扎根在人类的认知中,而普朗克的“量子化”假定,却彻底打破了这种直觉。
事实上,就连普朗克自己,也对这个假定持怀疑态度。
他在发表这一理论后,曾多次试图将“量子化”的概念重新纳入经典物理学的框架,试图找到一个更符合经典认知的解释,但最终都以失败告终。普朗克后来回忆道:“我提出量子假说,完全是出于无奈,我当时只能这样做,才能让公式与实验数据吻合。我始终希望能找到一个更好的方法,摆脱这个荒谬的量子概念。”
但历史已经证明,普朗克的这一“无奈之举”,不仅解决了黑体辐射的难题,更开启了量子物理学的大门,他也因此被公认为“量子理论的先驱”,并于1918年获得诺贝尔物理学奖。
普朗克的量子假说,就像一颗投入湖面的石子,在物理学界激起了层层涟漪。
1905年,一位当时籍籍无名的年轻物理学家——阿尔伯特·爱因斯坦,敏锐地捕捉到了量子假说的巨大潜力。这一年,爱因斯坦发表了五篇极具开创性的论文,其中一篇题为《关于光的产生和转化的一个试探性观点》的论文,大胆引用了普朗克的能量量子思想,提出了一个全新的观点:电磁波本身就是由无数个能量量子组成的,这些能量量子后来被称为“光量子”,简称“光子”。
爱因斯坦的这一观点,成功解释了当时经典物理学无法解释的“光电效应”——当光照射到金属表面时,会有电子从金属表面逸出,这种现象被称为光电效应。
经典电磁学认为,光的能量是连续的,只要光的强度足够大,无论光的频率如何,都能使电子逸出金属表面。但实验结果却表明,光电效应的发生与否,只与光的频率有关,与光的强度无关;只有当光的频率高于某一临界值时,才能产生光电效应,逸出电子;而光的强度,只会影响逸出电子的数量,不会影响光电效应的发生。
爱因斯坦利用光子的概念,完美解释了光电效应:光子具有一定的能量,其能量大小由光的频率决定;当光子照射到金属表面时,会将自身的能量传递给金属中的电子;如果光子的能量大于金属的逸出功(电子脱离金属表面所需的最小能量),电子就会获得足够的能量,逸出金属表面,产生光电效应;如果光子的能量小于金属的逸出功,无论光子的数量多少(即光的强度多大),都无法使电子逸出。爱因斯坦的这一解释,不仅验证了普朗克量子假说的正确性,更将量子概念从“能量辐射”扩展到了“光本身”,进一步推动了量子理论的发展。
值得一提的是,爱因斯坦正是因为这篇关于光电效应的论文,获得了1921年的诺贝尔物理学奖——这一奖项虽然迟到了多年(论文发表于1905年,获奖于1921年),但足以证明这一成果在物理学史上的重要地位。而爱因斯坦后来提出的相对论,与量子力学一起,成为20世纪物理学的两大支柱,他也因此成为人类历史上最伟大的物理学家之一。
从普朗克的能量量子假说到爱因斯坦的光子理论,量子论的雏形逐渐形成。
随着研究的深入,量子论的物理含义也在不断丰富和发展。最初,量子只是代表“离散的数学思想”与“物质和能量最小单位”的结合体;而到了如今,“量子”已经成为量子世界中物质客体的总称——它既可以是光子、电子、质子、中子等微观粒子,也可以是原子、原子核、分子等由微观粒子组成的微观系统,它们的共同特征就是:必须遵从量子力学的规律,其行为方式与宏观世界的物体有着本质的区别。
量子论诞生后,经过几十年的发展,逐渐形成了一套完整的理论体系——量子力学。量子力学是物理学的一个重要分支,专门研究微观粒子(量子)的运动规律,它与研究宏观物体运动规律的经典力学有着本质的区别,其核心思想和基本原理,完全颠覆了人类的经典直觉。
20世纪10-20年代,是量子力学快速发展的黄金时期,以尼尔斯·玻尔为首的哥本哈根学派,成为量子力学发展的引领者。
玻尔是丹麦著名物理学家,他在普朗克和爱因斯坦量子理论的基础上,提出了原子的量子化模型,成功解释了氢原子的光谱现象,为量子力学的发展奠定了重要基础。
哥本哈根学派聚集了当时世界上最优秀的一批物理学家,包括维尔纳·海森堡、马克斯·玻恩、沃尔夫冈·泡利等,他们通过不断的研究和争论,逐步完善了量子力学的理论体系,提出了一系列核心理论,其中最具代表性的就是玻尔的互补性原理、海森堡的不确定性原理,以及量子世界中最神奇的三大特性——量子叠加、量子纠缠和量子坍缩。
对于普通读者来说,我们无需深入钻研互补性原理、不确定性原理的复杂数学推导和物理细节,但理解量子叠加、量子纠缠和量子坍缩这三大核心特性,却是我们区分“真正的量子技术”与“伪量子产品”的关键。这三大特性是量子世界独有的,也是量子力学最神奇、最颠覆直觉的地方,它们共同构成了量子技术应用的基础。
在经典世界中,一个物体在某一时刻,只能处于一种确定的状态。比如,一只兔子,在某一时刻,它的性别要么是公的,要么是母的,不可能同时是公的又是母的;再比如,一枚硬币,抛出去之后,落地时要么是正面朝上,要么是反面朝上,不可能同时正面和反面都朝上;又如,一个物体,在某一时刻,只能处于一个确定的位置,不可能同时出现在两个不同的位置。这种“非此即彼”的确定性,是经典世界的基本特征,也是我们与生俱来的直觉。
但在量子世界中,微观粒子的行为方式却完全不同——它们可以同时处于多种状态的叠加之中,这种现象就叫做“量子叠加”,处于叠加状态的微观粒子,被称为“量子叠加态”。
我们可以用光子的偏振现象来理解量子叠加。光子具有偏振特性,所谓偏振,就是光子振动的方向。我们可以把光子的偏振方向想象成一根细小的箭头,它可以指向不同的方向,比如水平方向、垂直方向,或者45°方向、135°方向等。
在经典世界中,一束光的偏振方向是确定的,要么是水平偏振,要么是垂直偏振,不可能同时是水平偏振又是垂直偏振。但在量子世界中,单个光子却可以同时处于水平偏振和垂直偏振的叠加态——也就是说,在我们没有对光子进行测量之前,这颗光子既是水平偏振的,又是垂直偏振的,两种状态同时存在。
为了让大家更好地理解量子叠加,我们可以参考著名的“薛定谔的猫”思想实验。
这个思想实验是由奥地利物理学家埃尔温·薛定谔在1935年提出的,目的是为了形象地说明量子叠加态的奇特性质。实验的设想是这样的:把一只猫放进一个密闭的盒子里,盒子里还放有一个放射性原子核、一个 Geiger 计数器(盖革计数器)和一瓶剧毒的氰化物。
放射性原子核具有衰变的可能性,在一定的时间内,它有可能衰变,也有可能不衰变,这两种情况的概率各为50%。如果原子核衰变,就会释放出一个粒子,这个粒子会触发 Geiger 计数器,Geiger 计数器会发出一个信号,触发一个锤子,锤子会打碎装有氰化物的瓶子,氰化物泄漏,猫就会死亡;如果原子核不衰变,就不会触发后续的一系列反应,猫就会存活。
根据量子力学的观点,在我们没有打开盒子、没有对盒子内部进行测量之前,放射性原子核处于“衰变”和“不衰变”的量子叠加态。而由于猫的生死状态与原子核的衰变状态紧密相关,因此,猫也会处于“存活”和“死亡”的量子叠加态——也就是说,这只猫既是活的,又是死的,两种状态同时存在。只有当我们打开盒子,对猫的状态进行测量时,这种叠加态才会被打破,猫才会呈现出一种确定的状态——要么是活的,要么是死的。
“薛定谔的猫”思想实验,将微观世界的量子叠加态,巧妙地映射到了宏观世界,让我们直观地感受到了量子世界的荒谬与神奇。需要注意的是,这只是一个思想实验,在现实生活中,我们不可能看到一只“既活又死”的猫——因为宏观物体的量子叠加态非常容易受到外界环境的干扰,会快速发生“量子坍缩”,回到确定的经典状态。只有在微观领域,在严格控制外界干扰的条件下,量子叠加态才能稳定存在。
如果说量子叠加已经足够神奇,那么量子纠缠则更加令人不可思议。
量子纠缠是指两个或多个微观粒子之间,存在一种特殊的、超越时空限制的关联关系——当其中一个粒子的状态发生变化时,另一个粒子的状态会立刻发生相应的变化,无论这两个粒子之间的距离有多远,哪怕是相隔亿万光年,这种关联关系也依然存在,仿佛它们之间有“超距感应”一样。
我们可以用一对处于纠缠态的光子来理解量子纠缠。
假设我们通过某种实验手段,制备出一对纠缠光子A和光子B,这对光子的偏振状态存在着严格的关联——如果光子A是水平偏振的,那么光子B就一定是垂直偏振的;如果光子A是垂直偏振的,那么光子B就一定是水平偏振的。在我们没有对这对光子进行测量之前,它们各自都处于“水平偏振”和“垂直偏振”的量子叠加态;但一旦我们对光子A进行测量,确定了它的偏振状态(比如水平偏振),那么光子B的偏振状态就会立刻确定下来(垂直偏振),无论此时光子B距离光子A有多远——哪怕光子A在地球,光子B在遥远的银河系之外,这种变化也会瞬间发生,不需要任何时间传递。
这种“超距作用”,完全违背了经典物理学的规律——根据爱因斯坦的相对论,任何信息的传递速度都不能超过光速,而量子纠缠中的粒子状态变化,却是瞬间发生的,超越了光速的限制。爱因斯坦曾将量子纠缠称为“鬼魅般的超距作用”,他始终无法接受这种现象,认为量子力学的理论体系还不够完善,存在着某种“隐变量”,正是这种隐变量决定了纠缠粒子的状态,而不是所谓的“超距感应”。
为了验证量子纠缠的真实性,物理学家们进行了大量的实验,其中最著名的就是“贝尔实验”。1964年,物理学家约翰·贝尔提出了一个不等式(贝尔不等式),如果量子力学是正确的,那么纠缠粒子的实验结果将会违背贝尔不等式;如果爱因斯坦的“隐变量理论”是正确的,那么实验结果将会满足贝尔不等式。
经过几十年的实验验证,无数次的实验结果都表明,贝尔不等式被违背了,这意味着量子纠缠是真实存在的,爱因斯坦的隐变量理论是错误的。
量子纠缠的发现,彻底改变了我们对“关联”和“时空”的认知。
它表明,在微观世界中,粒子之间可以存在一种超越时空的紧密关联,这种关联不是通过信息传递实现的,而是粒子本身固有的一种特性。量子纠缠也成为了量子技术应用的核心基础,量子通信、量子计算等前沿技术,都离不开量子纠缠的支撑。
量子叠加和量子纠缠,都有一个共同的前提——在没有对微观粒子进行测量之前,粒子处于不确定的叠加态;而一旦我们对粒子进行测量,粒子的叠加态就会被打破,瞬间“坍缩”成一种确定的状态,这种现象就叫做“量子坍缩”。
量子坍缩的核心特点是:测量行为本身会改变微观粒子的状态,而且这种坍缩是随机的、不可预测的。在测量之前,我们可以通过量子力学的公式,计算出粒子处于各种可能状态的概率,但我们无法确定粒子最终会坍缩到哪一种状态;只有在测量之后,粒子的状态才会确定下来,而这种确定的状态,是随机出现的,没有任何规律可循。
我们依然以光子的偏振为例。在测量之前,单个光子处于水平偏振和垂直偏振的叠加态,我们可以计算出它坍缩到水平偏振的概率是50%,坍缩到垂直偏振的概率也是50%;但我们无法预测,这一次测量,光子会具体坍缩到哪一种状态。
如果我们重复进行多次测量,每次测量的结果都是随机的——有时候是水平偏振,有时候是垂直偏振,但从统计结果来看,水平偏振和垂直偏振的出现概率,都会趋近于50%。
这里需要注意的是,量子坍缩的随机性,是一种“真随机性”,与经典世界中的“伪随机性”有着本质的区别。经典世界中的随机性,其实是由于我们无法掌握所有的影响因素,才显得随机。
比如,我们抛硬币,看似结果是随机的,但如果我们能够精确掌握硬币的初始位置、抛射的力度、空气的阻力、落地的接触面等所有因素,就可以精准预测硬币落地时是正面朝上还是反面朝上——这种随机性,是“伪随机”,本质上是可以预测的。
但量子世界中的随机性,却是“真随机”,它不是由于我们掌握的信息不足造成的,而是量子世界本身固有的特性。无论我们掌握了多少关于微观粒子的信息,无论我们的测量设备多么精密,我们都无法预测量子坍缩的具体结果——这种随机性,是不可避免的,也是量子力学最核心的特征之一。
量子坍缩的另一个重要特点是:测量行为是导致量子坍缩的关键。
在没有测量的情况下,微观粒子会一直处于叠加态;而一旦进行测量,叠加态就会立刻坍缩。
这意味着,微观粒子的状态,并不是客观存在的,而是与我们的测量行为密切相关——我们的测量,会“创造”出微观粒子的状态。这种“观测者影响观测结果”的特性,也颠覆了经典物理学中“客观世界独立于观测者存在”的核心认知。
总结一下量子世界的三大核心特性:量子叠加让微观粒子可以同时处于多种状态;量子纠缠让微观粒子之间存在超越时空的关联;量子坍缩让测量行为可以改变微观粒子的状态,且这种改变是随机不可预测的。这三大特性,共同构成了量子力学的核心,也为真正的量子技术应用提供了理论基础。而那些泛滥的“量子产品”,之所以是伪科学,核心原因就是它们根本没有利用这三大特性,甚至完全违背了量子力学的基本原理。
量子力学诞生以来,不仅彻底改变了人类对微观世界的认知,更推动了科技的飞速发展。
如今,量子力学的理论已经逐步转化为实际应用,从量子通信到量子计算,从量子传感学到量子医学,真正的量子技术正在以全新的方式,改变着我们的生活和世界。需要强调的是,真正的量子技术应用,都严格遵循量子力学的基本原理,利用量子叠加、量子纠缠、量子坍缩等核心特性,而且研发难度极大,需要投入大量的人力、物力和财力,经过长期的科研攻关,才能逐步实现产业化。
量子通信是目前最成熟、最接近产业化的量子技术应用之一,它的核心功能不是“利用量子传递信息”,而是“利用量子力学的特性,对传统的电磁波通信进行加密”,从而实现“无法被破译”的保密通信。
在传统的通信技术中,加密方式主要是基于数学算法——通信双方约定一个密钥,发送方用密钥对信息进行加密,接收方用相同的密钥对信息进行解密。
这种加密方式的安全性,依赖于密钥的保密性和数学算法的复杂性。但随着计算机技术的发展,尤其是量子计算机的研发,传统的加密算法(如RSA加密算法)将面临被破解的风险——量子计算机可以利用量子叠加和量子纠缠的特性,在极短的时间内破解传统计算机需要上万年才能破解的密钥,这将给传统通信的安全性带来巨大的威胁。
而量子通信的出现,恰好解决了传统通信的安全隐患。
量子通信利用光子的量子特性(量子叠加、量子坍缩)来生成和分发密钥,这种密钥被称为“量子密钥”,它具有“绝对安全”的特性——一旦有人试图拦截、窃取或复制量子密钥,就会触发量子坍缩,导致密钥被破坏,同时通信双方会立刻发现有人入侵,从而终止通信,保障信息的安全。
具体来说,量子通信主要分为两个信道:一个是量子信道,用于传输量子密钥(以光子为载体);另一个是经典信道,用于传输加密后的信息和相关的控制信号(以电磁波为载体)。
通信双方在进行通信时,首先通过量子信道,发送一串处于量子叠加态的光子,这些光子的偏振方向(如水平、垂直、45°、135°)代表着密钥的0和1。接收方收到光子后,对光子的偏振方向进行测量,从而获得量子密钥;同时,通信双方通过经典信道,核对测量结果,剔除被干扰的光子,生成一份完全一致的、安全的量子密钥。
量子通信的安全性,主要源于两个方面:一是量子不可克隆定理,二是量子坍缩特性。
量子不可克隆定理是量子力学的基本定理之一,它表明:任何未知的量子态,都无法被精确复制。这意味着,窃听者无法复制传输中的量子密钥,因为一旦试图复制,就会改变光子的量子态,导致密钥被破坏;二是量子坍缩特性,窃听者在试图拦截、测量量子密钥时,会触发光子的量子坍缩,改变光子的偏振方向,从而被通信双方发现。因此,量子通信的密钥是绝对安全的,基于这种密钥的通信,也是无法被破译的。
中国在量子通信领域的研究,处于全球领先地位。由潘建伟教授领衔的科研团队,先后完成了“量子科学实验卫星‘墨子号’”“京沪干线量子保密通信骨干网”等重大科研项目,构建起了全球首条量子保密通信骨干网,实现了从地面到太空的量子通信网络覆盖。
“墨子号”量子卫星于2016年成功发射,它的主要任务是在太空中分发量子密钥,实现地球与太空之间的量子通信,以及全球范围内的量子保密通信。截至目前,“墨子号”已经成功实现了千公里级星地双向量子纠缠分发、星地量子密钥分发等重大突破,证明了太空量子通信的可行性。
京沪干线量子保密通信骨干网,连接了北京、上海、济南、合肥等多个城市,全长超过2000公里,是全球首条千公里级的量子保密通信骨干网。它的建成和投入使用,标志着中国量子通信技术已经进入产业化应用阶段,目前已经在金融、政务、电力等领域得到了初步应用,为这些领域的信息安全提供了有力保障。
需要特别说明的是,量子通信的核心是“保密”,它只能保障信息传输过程中的安全性,无法提高信息传输的速度,也不能实现“超光速通信”——信息的传输依然依赖于经典信道,速度依然不能超过光速。那些宣传“量子通信可以实现超光速传递信息”的说法,都是对量子通信的误解。
如果说量子通信是量子技术的“成熟应用”,那么量子计算机就是量子技术的“未来方向”。量子计算机是利用量子力学的特性(量子叠加、量子纠缠)进行信息处理的计算机,它与传统的电子计算机,在计算原理上有着本质的区别,其计算速度可以实现指数级的飞跃,能够解决传统计算机无法解决的复杂问题。
要理解量子计算机的优势,我们首先要了解传统电子计算机的工作原理。传统的电子计算机,是以“比特”(bit)作为信息处理的基本单位。比特的取值只有两种:0和1,分别对应着晶体管的“低电平”和“高电平”。计算机通过操控大量的比特,对0和1进行逻辑运算,从而实现信息处理、数据计算等功能。
比如,传统计算机要表示一个4位的二进制数,需要4个比特,每个比特只能取0或1,因此4个比特最多可以表示16种不同的组合(2⁴=16)。如果要对这16种组合进行运算,传统计算机需要逐一处理每一种组合,运算时间与组合的数量成正比——组合数量越多,运算时间越长。对于一些复杂的问题,比如大数分解、量子模拟等,需要处理的组合数量会达到天文数字,传统计算机即使用上万年的时间,也无法完成运算。
而量子计算机,则是以“量子比特”(qubit)作为信息处理的基本单位。量子比特与传统比特最大的区别在于,它具有量子叠加特性——一个量子比特可以同时处于0和1的叠加态,而不是只能取0或1中的一种状态。这意味着,一个量子比特可以同时表示0和1两种信息;两个量子比特可以同时表示4种信息(2²=4);三个量子比特可以同时表示8种信息(2³=8);以此类推,n个量子比特可以同时表示2ⁿ种信息。
这种特性,使得量子计算机的计算速度能够实现指数级的飞跃。比如,对于一个需要处理2ⁿ种组合的问题,传统计算机需要逐一处理2ⁿ种组合,运算时间与2ⁿ成正比;而量子计算机则可以利用量子叠加特性,同时处理这2ⁿ种组合,运算时间与n成正比。
举个例子,如果n=30,那么2³⁰≈10亿,传统计算机需要处理10亿种组合,而量子计算机只需要处理30个量子比特,运算时间会大幅缩短——原本需要上百年才能完成的运算,量子计算机可能只需要几秒钟就能完成。
除了量子叠加特性,量子纠缠特性也为量子计算机提供了强大的支撑。处于纠缠态的量子比特之间,存在着超越时空的关联,一个量子比特的状态变化,会立刻影响到其他相关的量子比特。这种特性可以让量子计算机实现“并行计算”,进一步提高计算效率。
比如,在处理一些复杂的逻辑运算时,量子计算机可以利用量子纠缠,让多个量子比特同时进行运算,从而大幅提升运算速度。
目前,量子计算机的研发还处于初级阶段,尚未实现真正的“通用量子计算机”,全球范围内的科研团队,都在致力于攻克量子计算机研发中的核心难题——量子比特的稳定性、量子纠缠的操控、量子误差校正等。
量子比特非常脆弱,容易受到外界环境的干扰(如温度、磁场、振动等),一旦受到干扰,就会发生量子坍缩,失去量子叠加和量子纠缠特性,导致计算错误。因此,如何提高量子比特的稳定性,延长其相干时间(量子比特保持量子态的时间),是量子计算机研发的关键难题之一。
热门跟贴