量子计算领域有个老笑话:量子比特数量每翻一倍,工程师的头发就少一半。但当苏黎世联邦理工(ETH Zurich)的研究团队把17000个量子比特同时塞进一个系统,还能让交换门(swap gate)的保真度跑到99.91%时,这个笑话突然不好笑了——因为这意味着中性原子路线可能正在悄悄改写游戏规则。
这个数字的离谱之处在于:它不是在实验室里"演示"了17000个量子比特的存在,而是让这17000个比特同时完成了一次精确的量子门操作。 换句话说,这不是堆料,是堆料之后还能让它们整齐划一地跳舞。
要理解这件事为什么重要,得先明白量子计算的两条技术路线之争。过去几年,谷歌和IBM押注超导电路,IonQ和Honeywell死磕囚禁离子,两家轮流刷"量子霸权"的存在感。中性原子路线?一直在"潜力股"和"备胎"之间反复横跳。
中性原子的卖点很直白:不带电,所以对电磁噪声天然免疫;用激光囚禁,理论上想塞多少塞多少。但缺点同样致命——怎么让这些原子乖乖听话做运算?之前的方案要么靠里德堡态(Rydberg states,一种高激发电子态),要么靠原子碰撞或量子隧穿。隧穿效应尤其让人头疼,它对激光强度的波动极度敏感,一点点实验噪声就能把保真度砸穿地板。
几何相位:一条不抄近路反而更稳的野路子
ETH团队的新玩法叫"几何相位"(geometric phase)。这个概念的物理图像很直观:想象一个粒子在参数空间里走了一条闭合路径,回到起点时,它的量子态会多出一个相位因子——这个相位只取决于路径的几何形状,跟走多快、路上有没有颠簸没关系。
「我们利用的就是这种拓扑保护,」论文通讯作者、ETH量子电子学研究所的Jonathan Home教授解释,「系统对实验 imperfections 的容忍度大幅提升。」
具体到这个swap门,两个相邻的量子比特(一个编码0/1叠加态,另一个作为辅助)被激光驱动着在状态空间里转了一圈。转完之后,两个比特的量子态完成了交换,而这个交换的精度——研究团队测出来是99.91%——基本上只由路径的几何性质决定,激光强度的涨落被有效隔离在外。
做个粗俗的类比:以前的量子门像是在结冰的山路上开车,油门稍微不稳就打滑;几何相位方案则是给车装上了轨道,你只要沿着轨道走完一圈,到终点的位置误差跟你怎么踩油门关系不大。
实验的具体设置相当精巧。研究团队用光镊阵列囚禁了超过17000个中性铷原子,排列成二维晶格。每个原子作为一个量子比特,用两个超精细能级编码|0⟩和|1⟩态。swap门的实现依赖于一种"受控绝热演化":通过精确调节激光频率和强度,让原子对沿着设计好的路径在希尔伯特空间里缓慢移动,最终完成态交换。
关键参数是演化速度。太快会引入非绝热误差,太慢则容易积累退相干。ETH团队找到了一个甜点区:单次swap门操作耗时约50微秒,在这个时间尺度下,几何相位的保护效应和退相干之间取得了平衡。
17000这个数字是怎么来的,又意味着什么
论文里的17000不是随便报的。研究团队实际搭建了一个17136个原子的阵列,成功在其中实现了全连接的swap门操作——任意两个相邻比特之间都可以执行交换。这个数字本身打破了中性原子量子计算器的规模纪录,但更重要的是它证明了可扩展性:几何相位方案没有随着比特数增加而出现明显的保真度衰减。
对比之下,超导量子比特的连通性受限于芯片布线,目前主流架构(如谷歌的Sycamore)是近邻耦合,跨芯片互联仍是难题。囚禁离子系统可以实现全连接,但离子链的长度受限,超过几十个离子后,集体振动模式(声子模式)的串扰会让门操作精度断崖式下跌。
中性原子的激光囚禁方案在理论上可以无限扩展——只要你激光功率够强,光镊阵列够密。ETH的17000比特演示,把这个"理论上"往前推了一大步。
但这里需要泼一点冷水。17000个比特同时存在,不等于17000个比特同时参与有用的量子计算。目前的演示只是swap门,属于量子信息处理中的"搬运工"操作,真正的量子算法还需要单比特门、双比特纠缠门(如CNOT)的完整集合。ETH团队在论文里也承认,下一步是把几何相位方案推广到更复杂的门操作。
另一个隐藏的挑战是读取。中性原子的量子态读取通常需要荧光成像,而17000个原子挤在一起,串扰和衍射极限会让单原子分辨变得困难。论文里提到的99.91%保真度,是在已知初始态、经过门操作、再测量末态的"过程保真度",完整的量子计算循环还包括初始化、读取等环节的误差累积。
谁在押注这条路线,为什么现在才爆
中性原子量子计算不是ETH独一家的游戏。美国公司QuEra、Pasqal,以及国内的Atom Computing,都在这个赛道上押了重注。QuEra的256比特机器已经商业化,Pasqal去年展示了1000比特的模拟量子计算。但这些公司之前的主流方案都是里德堡阻塞机制——用激光把原子激发到里德堡态,利用里德堡原子之间的强相互作用实现纠缠。
里德堡方案的问题在于,相互作用强度随距离急剧衰减,导致门操作速度受限(通常在微秒到毫秒量级),而且里德堡态的寿命短,容易受黑体辐射影响。几何相位方案绕开了里德堡态,直接用基态或低激发态的原子,理论上可以把门速度提到更快,同时保持长相干时间。
ETH的突破之所以现在出现,有几个技术积累的节点。一是光镊阵列的精度提升,近几年SLM(空间光调制器)和AOM(声光调制器)的性能进步,让数千个光镊的独立控制成为可能。二是绝热量子计算的实验技术成熟,如何在"足够慢以保证绝热"和"足够快以对抗退相干"之间找平衡,过去十年有了系统性的方法论。
Jonathan Home团队的背景也值得注意。他们长期专注于囚禁离子量子计算,在精密操控和量子门优化方面有深厚积累。2022年,他们把部分技术迁移到中性原子系统,开始探索几何相位方案。这种"技术移民"的视角,可能帮助他们避开了中性原子领域的一些思维定势。
99.91%保真度在行业里是什么位置
单看数字,99.91%并不是量子门保真度的天花板。超导量子比特的双比特门保真度,IBM和谷歌都已经做到99.5%以上,IonQ的囚禁离子系统甚至报告过99.9%级别的CNOT门。但比较需要放在具体语境里:这些高精度门通常是在少量比特(几个到几十个)上实现的,而且超导和离子系统的扩展性瓶颈前面已经提过。
ETH的99.91%是在17000比特规模上测得的swap门保真度。如果把这个数字放到量子纠错(QEC)的框架下评估,意义会更清晰。表面码(surface code)是主流的可扩展纠错方案,它对物理门保真度的要求阈值大约在99%左右。超过这个阈值,增加物理比特数可以指数级压制逻辑错误率。
99.91%意味着ETH的系统已经跨过了纠错的门槛,而且有相当的裕量。17000个物理比特,按照表面码的编码效率,大约可以支撑几百到上千个逻辑量子比特——这已经进入"有实用价值的量子计算"的讨论范畴。
当然,从物理比特到逻辑比特的转化不是自动的。需要完整的纠错协议实现,包括 syndrome 测量、解码算法、实时反馈控制等。ETH团队目前还没有展示这些,但几何相位方案的固有鲁棒性,理论上会降低纠错开销。
一个有趣的细节:论文里的保真度数据是在"单次测量"条件下获得的,没有使用事后选择或误差缓解技术。这意味着99.91%是"裸"的物理保真度,后续还有优化空间。
几何相位的物理,为什么能抗噪声
前面用"轨道开车"做了类比,这里稍微展开一点物理图像。几何相位的核心数学是贝利相位(Berry phase)或其非阿贝尔推广(holonomy)。当一个量子系统的哈密顿量依赖于一组缓慢变化的参数,并且这些参数在参数空间里画出一个闭合回路时,系统的本征态会获得一个额外的相位因子。
这个相位有两个关键性质。一是几何性:它只取决于回路的拓扑特征(比如包围的立体角),跟回路的参数化细节无关。二是全局性:只要回路是闭合的,局部的扰动(只要不破坏回路的拓扑结构)不会影响最终相位。
ETH的swap门设计了一个巧妙的参数回路。两个相邻原子的激光耦合强度作为参数,在二维参数空间里走了一个特定的轨迹。轨迹的设计使得最终的几何相位正好对应于两个量子态的交换。由于整个过程是绝热的,系统始终停留在瞬时基态,动力学相位可以被消除或补偿,只剩下纯净的几何贡献。
实验噪声——比如激光强度的随机涨落——在参数空间里表现为轨迹的局部形变。但只要形变不导致轨迹"撕裂"或改变拓扑类,最终的几何相位保持不变。这就是"拓扑保护"的物理来源。
对比传统的动力学门方案,保真度对控制参数的依赖通常是微分式的:激光强度偏差1%,门误差可能就增加1%。几何相位方案把误差压制到了高阶小量,偏差Δ导致的误差通常是(Δ)^2或更高阶。
从实验室到实用化,还有哪些坑
任何量子计算技术从论文到产品,中间隔着一条叫"工程化"的峡谷。ETH的17000比特演示是原型机级别的成果,距离可编程的通用量子计算机还有若干关卡。
首先是门集合的完备性。swap门虽然是通用量子计算的必要组件,但单独一个swap做不了通用计算。需要配合单比特旋转门,以及至少一个纠缠门(如CZ或CNOT),才能构成通用门集合。ETH团队下一步的计划,就是把几何相位方案扩展到这些门类型。
其次是连通性。目前的演示是最近邻swap,二维晶格上的任意两个比特通信需要多次swap接力。对于需要长程纠缠的量子算法,这种"跳房子"式的通信会成为瓶颈。解决方案包括物理上移动原子(光镊可以实时重排),或者开发更长程的门方案。
第三是纠错架构的选择。表面码适合二维最近邻连接,但几何相位方案的高保真度特性,可能允许更高效的编码方案,比如颜色码或LDPC码。这些码的解码算法更复杂,但编码效率更高,可以用更少的物理比特保护一个逻辑比特。
最后是系统集成。17000个比特的控制需要庞大的电子学系统:每个光镊的独立强度、频率、相位调制,全局磁场的稳定,成像系统的并行读取。ETH的实验用了多少机架的设备,论文里没有细说,但可以想象这不是能塞进一个标准机柜的东西。
行业反应:为什么超导和离子阵营还没慌
ETH论文发表后,量子计算社区的讨论相当活跃。一个有趣的现象是:超导和离子路线的支持者并没有表现出明显的焦虑。原因可能在于,17000比特的swap门演示,还没有直接威胁到各自路线的核心优势。
超导阵营的底气来自速度。超导量子门的典型操作时间是几十纳秒,比ETH的50微秒swap门快三个数量级。对于需要深度量子电路的算法,门速度的差异可能抵消比特数量的优势。此外,超导系统的晶圆级制造工艺正在成熟,成本下降曲线比激光系统更陡峭。
离子阵营则强调保真度的"含金量"。IonQ最近报告的99.9%级别门保真度,是在全连接的离子链上实现的任意两比特门,而ETH的99.91%仅限于最近邻swap。对于需要全连接架构的量子模拟任务,离子系统仍有优势。
中性原子路线的真正机会,可能在于"中间地带":比特数足够多(万级),保真度足够高(超过纠错阈值),同时保持可扩展性。ETH的演示把这个可能性从理论变成了实验事实,但谁能先把完整的技术栈跑通,现在下结论还为时过早。
一个值得关注的变量是量子纠错的开销。IBM和谷歌都在推进"低深度"量子算法,试图在纠错完全成熟之前找到商业应用。如果中性原子路线的高保真度特性,能显著降低纠错所需的物理比特数,它可能在"早期容错量子计算"的窗口期获得先发优势。
技术细节的魔鬼:绝热条件有多苛刻
回到论文的技术层面,几何相位方案的一个潜在弱点是绝热条件。绝热定理要求参数变化足够慢,使得系统始终紧跟瞬时基态。但"足够慢"是相对于能隙(energy gap)而言的:能隙越小,需要的演化时间越长。
ETH实验中,两个原子之间的耦合强度决定了有效能隙。在晶格边界或缺陷附近,能隙可能变小,导致绝热条件更难满足。论文里报告的99.91%保真度是平均值,没有给出比特位置相关的分布。边界比特的保真度是否显著低于中心比特,是一个关键但未公开的细节。
另一个技术细节是激光相位的控制。几何相位对回路的拓扑特征敏感,而拓扑特征由激光参数的相对相位决定。17000个比特意味着需要控制数千个光镊的相对相位,任何全局或局部的相位漂移都会转化为门误差。ETH团队用了什么相位稳定技术,论文里语焉不详。
还有原子温度的影响。中性原子虽然对电磁噪声不敏感,但对热运动敏感。原子的残余动能会导致光镊位置的涨落,进而影响原子之间的耦合强度。论文提到原子被冷却到接近量子简并温度,但没有给出具体数值。
这些未公开的细节,可能是复制这个实验的关键障碍,也可能是后续优化的空间所在。
竞争格局:中性原子公司的下一步
ETH的成果是学术界的突破,但商业公司的反应同样值得关注。QuEra和Pasqal目前的产品都基于里德堡方案,它们会跟进几何相位吗?
从公开信息看,QuEra的技术路线比较灵活。他们的256比特机器已经交付给客户(包括日本理化学研究所),主要面向量子模拟和优化问题。CEO Alex Keesling曾经表示,公司正在探索多种门方案,包括绝热量子计算。ETH的几何相位成果,可能加速他们的技术迭代。
Pasqal的情况类似,但侧重点不同。他们的1000比特系统主打"模拟量子计算",用原子的里德堡相互作用直接模拟量子多体系统,不经过数字化的门操作。这种方案对特定问题(如材料模拟、金融优化)有天然优势,但通用性受限。几何相位方案如果成熟,可能帮助Pasqal拓展到数字量子计算领域。
Atom Computing是另一个变量。这家美国公司专注中性原子路线,2023年展示了1000比特的原子阵列,但门操作的技术细节披露较少。他们的长期目标是构建百万比特级的量子计算机,几何相位的高保真度和可扩展性特征,与这个目标高度契合。
中国的中性原子量子计算也在跟进。中科大潘建伟团队、清华段路明团队都有相关布局,但公开报道的规模还在百比特量级。ETH的17000比特演示,可能成为一个参照标杆。
一个产品经理视角的观察
如果把这个领域当成一个产品来看,量子计算目前处于"技术验证"向"工程验证"过渡的阶段。超导和离子路线已经完成了技术验证(证明量子计算原理可行),正在啃工程验证的硬骨头(纠错、扩展、集成)。中性原子路线之前卡在技术验证的门口——比特数有了,但门保真度上不去。
ETH的突破,相当于给中性原子路线发了一张技术验证的补考通过单。但这张单子的有效期取决于后续进展:能不能把swap门扩展到通用门集合?能不能在保持保真度的同时提升速度?能不能把17000比特的控制系统集成到一个可维护的硬件形态?
从用户(量子算法的开发者)视角,他们不太关心底层物理,只关心两个指标:逻辑比特数和逻辑门保真度。物理比特数是原材料,逻辑比特数是成品。ETH的17000物理比特,按照当前纠错方案的转化率,大概能产出几百个逻辑比特——这个数字已经进入"可能有用"的区间,但离"明显优于经典计算"还有距离。
一个可能的拐点场景是:如果几何相位方案能把纠错开销降到10:1甚至更低(即10个物理比特保护1个逻辑比特),17000物理比特就能产出1700逻辑比特。这个规模对于某些量子模拟任务(如量子化学、材料设计)已经具有商业价值。
开放的问题
ETH团队在他们的新闻稿里留了一个钩子:「这种几何相位方法不仅适用于中性原子,原则上也可以转移到其他量子平台。」
这句话的潜台词很耐人寻味。超导量子比特的动力学相位方案,能不能改造成几何相位?囚禁离子系统的声子模式,能不能用来实现几何门?如果这些跨平台迁移成为可能,99.91%保真度的技术价值会进一步放大。
但更直接的追问是:当17000个量子比特能够同时完成一次精确的操作,我们离"量子计算机能做什么经典计算机做不到的事"这个终极问题,是更近了,还是只是换了一种方式在原地打转?Jonathan Home在论文的补充材料里提到,团队正在测试更复杂的量子电路,但具体是什么电路、测到了什么结果,目前还没有公开。
热门跟贴