科学家首次将量子噪声转化为特性,使微型系统得以胜任宏大任务。
多年来,人工智能的进步遵循一条简单的法则:做得更大——更多层、更多连接、更多计算能力。然而,一项新研究给出了不同的答案。
研究人员没有选择规模扩张,而是构建了一个极其微小的系统——一个仅包含九个相互作用的原子自旋的量子系统——并让它去解决通常需要远为庞大的机器才能处理的问题。
结果出人意料。这个微型系统不仅毫不逊色,在诸如预测未来数天温度模式等任务上,甚至超越了拥有数千节点的经典机器学习模型。
研究作者指出:“这首次在实验上证明,量子机器学习在真实世界任务上的表现能够超越大规模经典模型。”
那么,这是否意味着科学家们一直以来对量子计算的探索方向都是错的?
让系统自主思考
量子计算最大的挑战之一在于控制。大多数方法依赖精心设计的量子电路,其中每一步都必须精确执行。
然而,当前的量子硬件会受到环境中微小扰动(噪声)的影响,这些扰动会迅速打乱计算过程。这也是量子计算迟迟未能实现实际应用的原因之一。
研究人员退后一步,尝试了不同的思路。他们借用了机器学习中的一个思想——储层计算。
在这种方法中,你不需要微观管理整个系统。只需输入数据,让系统自行演化,然后读取输出结果。这种智能来源于系统自然处理和重塑输入信息的方式。
研究作者声称:“量子储层计算为机器学习应用提供了卓越的潜力。”
为了实现这一系统,团队利用核磁共振技术控制了九个原子自旋——本质上就是量子层面的微小磁体。这些自旋相互之间发生作用,形成不断变化的内部状态。当输入数据被编码进该系统后,它并不会保持静态,而是以复杂的方式传播、混合和变换。
这正是量子物理发挥作用的地方。系统可以同时存在于多种状态,并发展出强烈的内部关联。因此,即便只有少量组件,也能产生极为丰富的行为模式。
研究人员没有编程每一个步骤,而是让这些动力学过程自然展开,然后从中提取有用信息。
化缺陷为特性
在大多数量子实验中,耗散(系统向环境损失能量的过程)是一个需要消除的问题。它会抹除信息、引入错误。但在这项研究中,耗散被刻意利用了。
为什么?因为预测任务依赖于记忆。要预测接下来会发生什么,系统必须保留之前状态的痕迹——但不能太多。如果它同等记住所有信息,就会被淹没;如果遗忘太快,又会丢失上下文。
耗散提供了一种自然的平衡方式。它逐渐移除较旧的信息,同时让最近的输入对系统产生更强的影响。换句话说,通常被视为噪声的东西,变成了控制记忆的工具。
从基准测试到真实天气
为了验证这一方法的有效性,研究人员首先采用了一个名为 NARMA 的标准测试,该测试常用于评估时间序列预测系统。量子装置在此取得了首个重要成果:与先前的实验性量子方法相比,预测误差降低了一到两个数量级。
然而,基准测试是一回事,真实世界的数据又是另一回事。因此,研究团队转向天气预报,重点关注多日温度变化趋势。尽管系统极为简单,这个九自旋系统仍能以令人印象深刻的精度追踪这些模式。
最引人注目的对比发生在它与一个名为“回声状态网络”(储层计算中一种成熟方法)的经典模型之间的较量。即使将经典系统扩展到数千个节点,这个小得多的量子系统在多日预测中依然表现更优。
研究作者表示:“在长期天气预报中,我们的量子储层实现了比拥有数千节点的经典储层更高的预测精度。这表明,利用当前量子硬件,即可在时间序列预测中获得实用的量子优势。”
重新构想通往实用量子机器的道路
这项工作标志着量子计算发展思路的转变。研究人员不必等待大型、完美受控的量子机器,而是现在就可以从微小、不完美的系统中提取价值——利用其自然动力学,而不是与之对抗。
研究作者补充道:“我们提出了一种基于关联量子自旋系统的新型量子储层计算方法,利用自然的量子多体相互作用来产生储层动力学,从而规避了深层量子电路的实际挑战。”
话虽如此,这种方法仍处于早期阶段。当前系统规模有限,且仅在特定类型的问题上进行了测试。它不是通用计算机,扩大规模将带来新的挑战。
尽管如此,这项研究提供了一个非常重要的启示:进步并非来自不断做加法,而是来自更智慧地利用已有之物。
该研究发表于《物理评论快报》期刊。
如果朋友们喜欢,敬请关注“知新了了”!
热门跟贴