2019年谷歌宣布"量子霸权"时,没人想到真正的突破藏在学习算法里。那台53比特的悬铃木处理器解决了经典计算机需要万年才能完成的任务,但问题是——它解决的问题本身毫无意义。就像造出一辆时速一万公里的车,却发现没有路能让它跑。
过去五年,量子机器学习(Quantum Machine Learning,量子机器学习)经历了从狂热到沉寂再到复苏的完整周期。2021年前后,学界普遍认为量子优势只存在于特定数学问题,对实际学习任务毫无帮助。IBM、微软、谷歌的量子团队陆续裁员,风投机构把"量子"列为禁投标签。
但2024年下半年起,风向突变。谷歌DeepMind、MIT、苏黎世联邦理工(ETH Zurich)连续发布论文,证明量子系统在特定学习场景下具备"表征优势"——这不是速度问题,是经典计算机根本学不了的东西。用产品经理的话说:不是加载更快,是APP本身不存在于经典应用商店。
格罗弗搜索:从"加速查找"到"学习结构"
格罗弗算法(Grover's Algorithm,格罗弗搜索算法)诞生于1996年,比谷歌公司还早两年。它提供的是平方级加速:在N个未排序条目中查找目标,经典计算机平均需要N/2次尝试,量子计算机只需√N次。
这个算法曾被广泛误解。"很多人以为格罗弗只是数据库搜索,"谷歌量子AI团队负责人Hartmut Neven在2024年Q2技术博客中写道,「实际上,任何需要'在可能性空间中寻找满足特定条件的解'的学习任务,都可以映射为搜索问题。」
具体怎么映射?考虑一个推荐系统的训练过程。经典算法需要遍历用户-物品交互矩阵的所有可能填充方式,计算每种方式的损失函数,梯度下降寻找最优解。当矩阵维度达到百万级,这个"可能性空间"的规模是指数级的。
格罗弗搜索的变体可以直接在量子叠加态上操作,同时评估多个候选解的"好坏"程度。2024年12月,谷歌与斯坦福大学联合发表的预印本论文显示,在特定稀疏矩阵条件下,量子推荐系统的样本复杂度(即需要多少训练数据才能达到目标精度)比经典最优算法低一个数量级。
关键细节:这个优势只在"结构已知但参数未知"的场景成立。如果数据本身没有可利用的数学结构,量子加速消失。这正是早期量子机器学习被质疑的原因——研究者假设了过于理想化的数据分布。
HHL算法:线性系统的量子解法,为何沉寂十年
如果说格罗弗搜索是量子机器学习的"前端接口",HHL算法(Harrow-Hassidim-Lloyd算法,以三位发明者首字母命名)就是后台引擎。它解决的是线性方程组求解:给定矩阵A和向量b,找到x使得Ax=b。
这个任务听起来枯燥,却是机器学习的血液。最小二乘回归、支持向量机、高斯过程、图神经网络——底层都依赖线性系统求解。经典算法的复杂度随矩阵维度n增长为O(n³),HHL算法在特定条件下可以达到O(log n)。
但HHL有个致命前提:矩阵需要满足"稀疏性"和"良好条件数"。2014年至2022年间,多个研究团队尝试将其应用于实际数据集,发现真实世界的矩阵很少满足这些条件。MIT量子计算教授Seth Lloyd——正是HHL中的那个L——在2023年的一次访谈中承认,「我们当年过于乐观了。把量子算法从黑板搬到硅片,中间隔着整个工程学科。」
转机出现在2024年。ETH Zurich的量子信息研究团队发现,通过"数据预处理+量子编码"的组合策略,可以将广泛存在的低秩矩阵转化为HHL可用的形式。他们在arXiv发布的实验显示,对于维度为2^16的线性系统,量子模拟器(经典计算机模拟量子计算)比直接求解快47倍。
这个数字需要冷静看待:模拟器本身有 overhead(额外开销),真实量子硬件目前只能处理2^10左右的问题规模。但方向是明确的——HHL正在从"理论优美"走向"工程可行"。
量子神经网络:在希尔伯特空间里重新发明反向传播
前两个算法都是"量子加速经典任务",量子神经网络(Quantum Neural Networks,量子神经网络)试图走得更远:在量子态本身上定义学习结构。
经典神经网络的参数是实数,量子神经网络的参数是量子门(Quantum Gate,量子门)的旋转角度。输入数据被编码为量子态,通过网络层演化,最后测量得到输出。整个过程发生在希尔伯特空间——一个维度随量子比特数指数增长的向量空间。
这个指数维度是双刃剑。一方面,它提供了巨大的表征容量;另一方面,大多数状态是不可达的、不可训练的。2022年之前,量子神经网络面临"贫瘠高原"(Barren Plateaus)问题:随机初始化的网络,梯度随网络深度指数衰减,优化几乎不可能。
2024年的突破来自两个方向。谷歌DeepMind团队提出了"量子卷积核"(Quantum Convolutional Kernel),将数据编码与网络结构解耦,避免深度网络的梯度消失。苏黎世联邦理工的Jens Eisert小组则证明,特定对称性约束下的量子神经网络可以规避贫瘠高原,且这些对称性恰好对应物理系统的守恒律。
「我们不是在模拟经典神经网络,」Eisert在2024年12月的量子计算年会演讲中说,「是在问:如果一个学习系统天生服从量子力学规律,它的归纳偏置(Inductive Bias,模型对解空间的先验假设)会是什么?」
这个问题指向"表征优势"的核心。经典机器学习的归纳偏置来自人类设计:卷积网络假设空间局部性,Transformer假设序列相关性。量子神经网络的归纳偏置来自物理定律本身——叠加、纠缠、测量坍缩。这些偏置是否对应真实世界的某些结构,目前尚无定论,但2024年的实验显示,在量子化学分子能级预测任务上,量子神经网络用少得多的参数达到了与经典图神经网络相当的精度。
参数效率是关键指标。量子比特的物理实现极其昂贵,如果需要用比经典网络更多的量子参数才能达到相同效果,商业可行性为零。目前的初步结果是乐观的,但样本量有限,且任务经过精心挑选。
那么,量子学习算法的"圣杯"——经典计算机无法学习的函数类——找到了吗?
严格来说,还没有。2024年最严谨的量子学习理论论文来自加州大学伯克利分校,他们证明了在"量子查询模型"下,某些布尔函数的量子样本复杂度低于经典。但这个模型假设学习者可以直接访问量子态,而现实中的数据是经典的。从经典数据到量子编码的转换成本,可能抵消所有理论优势。
更务实的路径是"混合架构":经典网络处理数据预处理,量子模块负责特定子任务。谷歌2024年10月公开的量子机器学习流水线正是这个思路——用经典Transformer提取特征,用量子核方法计算高维相似度。
这个架构没有实现纯粹的表征优势,但在特定基准测试上取得了量子-经典混合系统的最佳成绩。对于产品经理出身的人来说,这很熟悉:技术革命的早期,从来不是新旧替代,而是新旧拼接。
IBM量子网络负责人Jay Gambetta在2024年Q4的年度展望中写道,「2025年我们会看到更多'量子启发'的经典算法,以及更多'经典友好'的量子算法。界限在模糊,这是健康的。」
如果量子学习算法最终突破,最可能的场景不是某个单一算法的胜利,而是整个工具链的成熟:更好的量子编码方案、更聪明的误差缓解技术、更紧密的软硬协同设计。目前,谷歌的悬铃木、IBM的苍鹭(Heron)、IonQ的离子阱系统,正在用截然不同的物理实现探索同一片空间。
2024年12月,一个细节被多数报道忽略:谷歌在更新量子机器学习库TensorFlow Quantum时,默认后端从模拟器切换为真实量子硬件调用接口。这个改动意味着,他们判断硬件已跨过"可用性阈值"——不是指超越经典,而是指值得开始积累真实硬件上的训练经验。
对于习惯了经典机器学习"堆数据、堆算力"模式的从业者,量子学习算法提出了一个陌生问题:当计算基础从布尔逻辑变为概率幅演化,优化目标从损失函数最小化变为量子态保真度最大化,我们熟悉的那些直觉——过拟合、泛化、正则化——还成立吗?
热门跟贴