打开网易新闻 查看精彩图片

量子计算机的核心问题,不是算不快,而是太容易坏。2026年2月,发表于《物理评论X》的一项研究带来了一个关键进展:

来自哥本哈根大学尼尔斯·玻尔研究所的研究团队,联合挪威科技大学、荷兰莱顿大学和瑞典查尔姆斯理工大学,开发出一套能够实时追踪量子比特性能波动的监测系统,速度比此前同类方法快了约100倍。

这听起来像是一个纯技术指标的进步,但它真正改变的,是人类第一次能够在量子计算机"出错的那一刻"看清楚到底发生了什么。

以前的检测,为什么跟不上?

量子比特是量子计算机的基本运算单元,地位相当于经典计算机中的晶体管,但它极度脆弱。构成量子比特的超导材料内部存在微观尺度的物理缺陷,研究界将其称为"两能级系统"(TLS)缺陷,这些缺陷每秒可以翻转状态多达数次至十数次,每次翻转都会改变量子比特的能量耗散速率,也就是量子信息流失的速度

问题是,过去的标准检测方法需要长达一分钟甚至更长时间才能完成一次量子比特性能评估。这就像用一把以分钟为刻度的钟表去测量以毫秒为单位发生的事情,你看到的永远只是"平均值",而不是真实发生的动态过程。

打开网易新闻 查看精彩图片

量子比特是量子计算机的基本单元,类似于经典计算机中的比特。在这项工作中,量子比特由超导电路构成,其能量会泄漏到环境中。这种能量损失率并非恒定不变,而是会因环境噪声而随时间波动(上图)。以往的测量方法速度太慢,无法追踪这些快速变化,只能测量平均值。本文中,由现场可编程门阵列(FPGA,下图)驱动的快速经典控制器,利用重复测量结果(1, 0, 0, …),实时持续监测能量损失率的变化。该控制器实时调整控制脉冲的时序,从而能够追踪比以往预想快得多的波动。图片来源:Fabrizio Berritta

更糟糕的是,量子处理器的整体性能,不由表现最好的量子比特决定,而是由最差的那个拖累。一个量子比特在某一瞬间"出了问题",可能在整个计算过程中引入难以察觉的错误,而工程师却浑然不知。

FPGA如何把速度提升了100倍?

尼尔斯·玻尔研究所团队的核心突破,在于将一种名为现场可编程门阵列(FPGA)的专用处理器引入量子比特监测流程。FPGA并非新发明,它在工业控制和高频交易等需要极速实时响应的领域已有广泛应用,但将其与量子测量策略深度整合,并在每次测量后即时更新内部的贝叶斯统计模型,是这项研究在方法论上的核心创新。

具体来说,FPGA控制器在每次对量子比特完成一次测量后,会立刻在毫秒级时间内更新对当前弛豫速率的估计,弛豫速率就是量子比特损失能量的快慢,是衡量量子比特稳定性的关键指标。这套系统不需要将数据打包发送到外部计算机再等待处理结果,整个分析循环在FPGA内部完成,避免了数据传输带来的延迟。

打开网易新闻 查看精彩图片

这确实有点不公平——你有一匹值得信赖的马,它正努力拉着犁耕地,而你却以极高的速度在它行进的路径上抛撒树枝和石块,导致犁地的人根本无法避开。这对庄稼和最终的收成可不是什么好事!图片来源:Søren Jønsson Granat

研究团队使用的是以色列量子控制公司Quantum Machines提供的商用FPGA控制器OPX1000,编程接口类似于物理学界广泛使用的Python语言。这意味着这套系统在原理上对全球研究团队都具备可复制性,不需要专门定制的昂贵硬件。

实验结果清晰地展示了这套系统的能力:研究人员可以在几秒钟内获得一个"不稳定量子比特"的完整行为统计,而此前同样的分析需要耗费数小时乃至数天。

更重要的是,实验本身带来了一个此前不曾被清晰记录的发现:即使是被归类为"良好"的量子比特,也可能在不到一秒钟的时间内转变为"糟糕"的量子比特,随后又可能恢复。这种快速、随机的状态切换,在过去的慢速检测体系中完全不可见,因而也从未被认真对待。

研究主要作者法布里齐奥·贝里塔坦言,团队目前仍无法解释所观察到的大部分波动的物理机制。他指出,理解并最终控制这些波动背后的物理原理,是将量子处理器扩展到实用规模的必经之路。

这项研究的意义,不仅仅是一个检测速度的技术提升。它为量子计算机的实时校准提供了可能,工程师未来或许可以在量子比特"刚开始变坏"的瞬间就介入调整,而不是在一次失败的计算完成后才发现问题。对于谷歌、IBM等正在竞相推进量子处理器规模化的企业而言,这种实时故障感知能力,是通往真正可靠的量子计算机的一块重要拼图。

信息来源:https://scitechdaily.com/scientists-finally-see-quantum-computer-failures-as-they-happen/