一系列令人惊讶的进展表明,可用的量子计算机可能在十年内到来。
就在几年前,量子计算领域的许多研究人员还认为,要研制出能够解决复杂任务的机器,例如预测化学反应机理或破解加密文本,可能还需要数十年。但现在,人们越来越相信,这类量子计算机有望在未来十年内问世。
对此,可以用“氛围转变”来形容量子计算界观念的变化:“人们现在开始逐渐接受这种可能性。”
近两年,量子计算领域的进展速度显著加快,且是在多个方向上同时提速。高校实验室的研究团队以及从小型初创企业到大型科技公司的产业界力量,正通过改进量子器件制造工艺与优化控制技术,大幅降低长期困扰量子设备的误差水平。与此同时,理论研究者也更深入地理解了如何更高效地使用量子设备。
耶路撒冷希伯来大学计算机科学家Dorit Aharonov表示:“到目前为止,我更确信量子计算一定会实现,而且时间线比人们曾经认为的要短得多。我们已经进入了一个新纪元。”
“派上用场”
事实上,很多人把“量子计算机派上用场”简单理解为“在某个任务上超过经典计算机”。这其实过于宽泛。真正的“派上用场”,至少需要跨过三道门槛:
第一道门槛是可靠性。量子计算不是一次性实验,它需要的是能在工程上稳定复现。也就是说,系统要能在噪声与漂移里持续工作,结果可验证、可复现,且误差随规模增长不会失控。正因如此,“容错量子计算”才被普遍视为“从演示到应用”的分水岭。
第二道门槛是成本-性能比。即使纠错可行,如果每个逻辑比特要消耗上千个物理比特,系统会在工程成本与制造良率上直接崩溃。长期以来,科学家们估计,使用它来运行一个完全容错的量子算法,将需要1000:1的开销,即每个逻辑量子比特至少需要1000个物理量子比特。而现在,降低开销正成为主要竞争方向。
第三道门槛是可交付的工作流。这里的工作流指的是能嵌入真实研发流程:有输入数据、有可解释输出、有验证机制、有与HPC/AI的协同接口。Eisert与Preskill在2025年的综述中把这条路拆成四个“鸿沟”:从误差缓解到主动纠错、从初级纠错到可扩展容错、从启发式算法到可验证算法、从探索性模拟到可信优势。
这三道门槛是实现有用量子计算的重点。而近两年量子计算领域的显著突破,恰恰集中在第一道与第二道门槛上,并开始向第三道门槛渗透。
真正的转折点
量子纠错不是一个新概念,长期以来,它更像理论物理的“应许之地”,大家都知道它在数学上成立,真正难的是把它变成实时闭环的工程系统。关键原因就在于,纠错本身也会引入误差,只有当系统的物理误差率低于某个阈值时,增加码距才会带来逻辑误差的指数下降。
但也有学者表示,过去一年左右,已有四个研究团队证实这些问题最终能够得到解决。这四个团队分别来自美国加利福尼亚州圣巴巴拉市的谷歌量子人工智能实验室、科罗拉多州布鲁姆菲尔德市的Quantinuum公司,以及马萨诸塞州波士顿地区的哈佛大学和初创企业QuEra。就在2025年12月,中国科学技术大学潘建伟院士团队也跻身这一顶尖研究行列。
这四个团队均实现并优化了量子纠错技术。该技术将单个逻辑量子比特所存储的量子信息,分散编码到多个物理量子比特中。
谷歌与中科大的研究团队采用的技术方案为,将量子信息编码在超导材料环内循环的电子的集体状态中,并将超导材料维持在略高于绝对零度的超低温环境中,防止量子信息发生退相干。
Quantinuum利用电磁阱中单个离子内电子的磁矩取向进行量子信息编码。QuEra的量子比特则以光镊囚禁的单个中性原子的取向为载体。在量子计算过程中,通过对特定物理量子比特进行中途测量,量子计算机可检测出逻辑量子比特中的信息是否发生退相干,进而执行相应的纠错操作。
与其他量子比特操作相同,量子纠错操作本身也会引入误差。在20世纪90年代,Aharonov等学者已通过数学证明,若反复执行量子纠错操作,理论上可将误差降低至任意期望的水平。但这一结论存在一个前提,纠错过程的每一个步骤,都必须将误差降低至某一临界阈值以下。
如今,这四个研究团队均证实,其量子计算系统的操作误差可满足这一临界阈值要求。对众多物理学家而言,这一里程碑式的成果表明,大规模容错量子计算具备实现的可行性。
当然,我们把这些团队的成果放在一起看,可以清晰发现,量子纠错正在从“论文里的阈值定理”,变成“系统里的闭环控制”。而这,就是“派上用场”的第一根支柱,即可靠性开始可工程化地增长。
追求高保真度
即使量子纠错技术能够实现,它也并非万能的解决方案。纠错跨阈值解决的是方向问题,但要让系统变得“算得起”,必须让纠错的开销下降,而这高度依赖于门操作的保真度。
有研究者实现了数年前看似只存在于科幻中的超高保真度量子操作。2025年6月,牛津大学团队宣布实现了保真度达99.999985%的单量子比特门操作,这一精度较此前的纪录提升了一个数量级,也是迄今精度最高的单量子比特门操作,且该突破未对量子硬件底层结构做任何改动。
多量子比特门的操作误差通常高于单量子比特门,因为它牵涉耦合、串扰、运动模态、频率拥挤等多重工程问题。此前,IonQ宣布实现“四个九”(99.99%)双量子比特门保真度,并强调无需基态冷却等复杂操作,指向更可规模化的控制范式。
与此同时,Quantum Transistors在金刚石色心体系中宣布实现99.9988%(接近五个9)的双量子比特门操作,并以预印本形式给出技术细节。
需要强调的是,这类纪录常常属于“英雄实验”,即为了极致优化某个操作而做的单点突破,迁移到可重复、可量产、可维护的整机系统,往往还需要时间。但即便如此,“英雄实验”的价值仍然巨大。
此外,在超导量子计算领域,超导量子比特的一大核心缺陷是量子相干时间较短——在算法对芯片上物理距离较远的量子比特进行操控时,超导量子比特存储的信息会发生退相干。
Nathalie de Leon团队通过材料与衬底改进,如将超导环路的材料从铝替换为钽,将衬底材料从蓝宝石替换为绝缘硅,让超导量子比特的相干时间从0.1毫秒提升至1.68毫秒。该团队还认为,这一实验仍有空间进一步提升到10-15毫秒。
这表明,寿命越长,同等纠错目标下对门保真度与纠错频率的压力越小,系统设计余量越大。所以,追求高保真度是“派上用场”的第二根支柱。当物理层足够好,纠错的冗余才能真正降下来。
低开销纠错与系统工程
当前量子计算领域的核心研究方向,是如何提升量子纠错技术的效率。目前已有多种潜在的优化路径:理论物理学家可研发更高效的量子纠错编码方案,用更少的物理量子比特实现逻辑量子比特的信息编码;提升量子门操作的保真度和物理量子比特的质量,可减少量子纠错的步骤,进而降低所需的物理量子比特数量。
2025年5月,谷歌研究员Craig Gidney发表了一篇具有里程碑意义的论文《如何用不到100万个噪声量子比特分解2048位RSA整数》,证实了能将实现该任务的物理量子比特需求从2000万个缩减至100万个,其核心优化手段之一是将抽象的量子门运算图转化为复杂的三维结构。
他表示:“我在算法设计中充分运用了几何直觉。”Gidney称,其设计的算法性能已接近传统量子纠错技术的理论最优水平,而更先进的量子纠错技术有望进一步降低物理量子比特的开销比。
IBM公司研发出了一种先进的量子纠错技术,该技术所需的物理量子比特数量仅为行业标准方案的十分之一,即物理量子比特开销比可降至约100:1。
QuEra正依托其中性原子量子比特的核心优势开展实验。其创始人、哈佛大学物理学家Mikhail D.Lukin表示,该公司研发的量子纠错方案,理论上也可将物理量子比特开销比降至100:1。要实现这一目标,QuEra需将其双量子比特门的保真度从目前的99.5%提升至约99.9%,Lukin认为这一目标具备实现的可行性,他说:“我们正稳步朝着‘三个九’的超高保真度目标迈进。”
同时,将量子计算机从实验室原型转化为实用设备仍面临系统工程挑战。前Google量子计算负责人、2025年诺贝尔奖得主John Martinis指出:“公司常宣传机器优点,但造有用设备面临系统工程核心挑战,部件如何协同。”
量子芯片与经典控制系统的集成是关键难题。目前,每个量子比特需独立线缆连接至室温控制系统,限制了可扩展性。谷歌量子AI创始人兼负责人Hartmut Neven透露,Google正在开发低温电子系统,可将控制电路集成在量子芯片附近,从而在单冰箱内容纳数万量子比特。
Martinis创立的Qolab公司与Applied Materials合作,利用现代半导体工艺制造300毫米量子芯片,目标单芯片集成2万以上超导量子比特。“我们正以全新方式制造设备,”Martinis表示,这种整体设计方法有望解决量子计算系统的集成挑战。
可见,当纠错跨阈值、门保真度足够高时,“派上用场”的主战场开始从物理实验室转向半导体式的系统工程。
量子计算能否快速落地?
长期以来,企业对短期内实现大规模容错量子计算的前景一直持乐观态度。谷歌量子AI创始人兼负责人Hartmut Neven表示:“我们始终承诺,将在本十年末推出可实际应用的量子计算机,这一目标从未改变。”
中国科学技术大学的量子计算研究者陆朝阳表示,他目前的最佳预测是,人类将在2035年左右实现完全的容错量子计算。这一时间表得到多数独立专家认可,标志着量子计算从“是否可行”转向“何时实用”的阶段。
然而,实现容错量子计算的目标并非易事,众多研究者仍认为,其实现时间将晚于头部企业公布的时间线。
这种分歧并不意味着谁“对、谁错”,而是说明,时间表取决于你把“可用”定义到哪一层、把系统短板放在哪里,以及你是否把供应链、制造、封装、低温电子学与软件栈都纳入同一张路线图。
总之,就在几年前,人们还对“十年内实现量子计算重大突破”的设想嗤之以鼻,而如今,这一期待已成为量子计算领域的共识。
[1]https://arxiv.org/abs/2510.19928?utm_source=chatgpt.com
[2]https://www.nature.com/articles/d41586-026-00312-6
热门跟贴