撰稿:Jack

打开网易新闻 查看精彩图片

封面图:模拟光学计算机的详细图像(图源:微软)

导 读

人工智能(AI)与组合优化技术正在推动科学和工业应用的快速发展,但随之而来的高能耗问题,对现有数字计算系统的可持续性提出了严峻挑战。目前,大多数新型计算方案往往只能处理某一类任务——要么是AI,要么是优化问题,并且严重依赖高能耗的数字–模拟转换过程,限制了实际效率。此外,现有系统还普遍存在应用与硬件不匹配的问题,尤其在处理内存密集型神经网络、复杂优化映射或模拟噪声时表现不佳。

在这一背景下,微软剑桥研究院的研究团队联合巴克莱银行的研究人员在Nature上以Analog optical computer for AI inference and combinatorial optimization为题发表重磅文章,推出了一种模拟光学计算机(AOC)。该设备结合了模拟电子学和三维光学技术,能够在单一平台上高效处理AI推理与组合优化两类任务,有效跳过了高耗能的数字转换步骤,并展现出优异的抗噪声能力。这项研究不仅突破了传统二进制计算机在复杂问题求解中的局限,实现诸如金融交易结算和医疗影像重建等现实应用,更能以百倍能效和远超当前GPU的速度,运行下一代大型语言模型等。

打开网易新闻 查看精彩图片

图1:模拟光计算机理 Nature 645, 354–361 (2025)

技术突破:光电融合开创计算新范式

1 工作原理

如今数字计算主导着计算技术领域,数字硬件的飞速进步催生了人工智能(AI)的繁荣。然而,随着AI应用对算力需求激增,能耗和延迟问题逐渐凸显,数字计算开始遇到瓶颈。

人们开始转向模拟技术,如光学计算、模拟电子阵列和量子退火器等,这些技术有望在效率和速度上实现数量级提升。但现有模拟计算方案通常只能专注于某一类任务——要么是AI推理(当前商业AI应用中能耗占比高达90%),要么是组合优化问题。

针对这一挑战,微软研究院团队开发了模拟光计算机(AOC)。它最大的特点是能同时高效处理AI推理和组合优化两类任务。AOC将光学系统和模拟电子元件结合在一个反馈循环中,无需频繁的数字-模拟信号转换。

在每次约20纳秒的循环中,光学部分负责矩阵/向量乘法:微型LED阵列的光强编码状态向量,空间光调制器存储权重信息,光电探测器收集并转换光信号为电压。模拟电子部分则通过专用电路完成非线性运算、加减法和退火调度等操作。

经过数次到数千次迭代,系统收敛到稳定解后才进行数字读取。这种光电交替的工作方式让AOC对模拟硬件中的噪声更加鲁棒,尤其适合处理新型的计算密集型AI模型。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

图2:模拟光计算的硬件结构和核心组件 图源:Nature 645, 354–361 (2025)

2 数字孪生验证

目前的模拟光计算原型系统(如配备16个微型LED和光电探测器的系统)主要用于概念验证,其能处理的权重数量与实用化需求(如医疗MRI成像需处理约4亿权重,大语言模型需数十亿参数)相距甚远,亟待规模扩展。

为了突破当前硬件规模限制,研究团队开发了AOC的“数字孪生——一个能够在计算机中精确模拟物理硬件行为的软件模型这个数字孪生不仅实现了与实际硬件99%的一致性,更重要的是能够验证大规模问题的处理能力,为技术的可扩展性提供了有力证明。

与此同时,微软正在公开分享其“优化求解器”算法及其开发的“数字孪生”,以便其他组织的研究人员可以研究这种新的计算范式,并提出新的问题和解决问题的新方法。

实际应用:从金融到医疗的概念验证

1 金融领域:破解证券交易结算难题

在金融应用中,该团队与巴克莱银行合作,针对证券交易中的“交付与支付”难题进行了优化验证,显示出在实时风控与结算中的实用价值。为了验证AOC技术的潜力,巴克莱银行与微软团队合作,共同设计了一个包含1800个假设交易方和28000笔交易的大规模测试场景,用以评估技术的可扩展性。在实际的硬件验证中,研究团队成功处理了一个包含46笔交易、37个参与方的代表性案例。

2 医疗领域:重塑MRI成像效率

在医疗场景中,该技术可大幅加速核磁共振成像(MRI)扫描过程,有望将成像时间从30分钟缩短至5分钟,提升医疗设备的使用效率。当前医院核磁共振成像出结果速度慢的主要原因在于需要采集大量数据来重建图像。因为现代MRI技术采用“压缩感知”算法,它允许在远低于传统要求的测量次数下重建图像,但这依赖于求解一个计算非常复杂的数学优化问题,在传统计算机上耗时很长。AOC的突破在于它能够极快地解决MRI图像重建中的核心数学问题。研究团队已成功将MRI压缩感知重建问题映射到AOC硬件上,将其表述为一个二次无约束混合优化问题,并通过光学计算快速找到最优解。在实验中,研究人员利用AOC对32×32像素的模型图像进行了压缩感知重建测试。结果显示,AOC能够有效地从欠采样的数据中高质量地恢复图像,验证了这一技术路径的可行性

打开网易新闻 查看精彩图片

图3:用于机器学习的模拟光计算 图源:Nature 645, 354–361 (2025)

前景与挑战:从原型到商业化的漫长征程

1 性能优势

在性能方面,该模拟光计算机的计算速度主要受光电子元件带宽的限制,通常可达到极高的GHz量级。举例而言,在面对超大规模权重矩阵(如接近亿级参数)的计算任务时,若采用多个计算模块协同工作,系统在典型功耗下可实现每秒数百拍次运算的吞吐效率,其能效表现显著优于当前最先进的GPU。在相同精度条件下,该光学计算机的能效比传统GPU高出约两个数量级,展现出巨大的节能潜力。

2 技术局限性

尽管AOC的各个核心组件(如微型LED、光电探测器)已有成熟的制造生态,但如何将这些组件,特别是集成模拟电子器件与三维光学器件,进行更紧密的耦合以实现小型化和模块化生产,仍需要大量的工程创新。而且,为实现处理0.1亿至20亿权重的目标,可能需要50到1000个光学模块协同工作。这种多模块的高效协同本身就是一个复杂的系统性问题。

3 商业化挑战

未来,要将AOC技术从实验室推向市场,仍然需要进一步突破从概念原型到产品的鸿沟,与整个产业生态系统的支持(如设计工具、软件适配、行业标准),并找到能够引爆需求的杀手级应用。

4 未来前景展望

尽管AOC距离大规模落地应用仍有较远的距离,但是通过该研究团队提出的“快速定点搜索”的技术,这种模拟光学计算机构建起一种新型计算范式,不仅支持递归推理类的复杂神经模型,也为未来高效AI训练提供了一条基于梯度下降的新路径,这标志着光学计算向更可持续、更强通用性的下一代计算架构迈出了关键一步。

相关文献

1. Kalinin, K.P., Gladrow, J., Chu, J. et al. Analog optical computer for AI inference and combinatorial optimization. Nature 645, 354–361 (2025). https://doi.org/10.1038/s41586-025-09430-z

2. Chris Welsch, Microsoft’s analog optical computer cracks two practical problems and shows AI promise,

https://news.microsoft.com/source/features/innovation/microsoft-analog-optical-computer-cracks-two-practical-problems-shows-ai-promise/

来源:中国光学

编辑:叉叉

转载内容仅代表作者观点

不代表中科院物理所立场

如需转载请联系原公众号

打开网易新闻 查看精彩图片