你敢信吗?现在训练一个大型AI模型,消耗的电量能让一个普通家庭用几十年!全球数据中心正在变成吞电的“黑洞”,GPU功耗飙到700瓦还不够,再这样下去,AI越智能,地球的电力负担就越重。但最近,一家从牛津大学跑出来的初创公司,用一个“反常识”的方法破局:不用电子用“光”做计算,算力直接翻50倍,还能省90%的电!这到底是黑科技还是噱头?

打开网易新闻 查看精彩图片

训练和运行大模型的计算量每隔几个月就翻一番,GPU的功耗也跟着疯涨。英伟达H100单卡功耗700瓦,新一代产品还要突破这个数,整个数据中心的电费和散热成本快成了运营的“拦路虎”。

研究机构保守估计,到2030年,全球数据中心的电力消耗要比现在翻一番。摩尔定律跑了半个多世纪,现在终于“歇菜”了:新芯片性能提升越来越慢,功耗却越来越高,AI行业的算力瓶颈,眼看就要卡死在电力上。

这家叫Lumai的公司,拿出了一款叫Iris Nova的推理服务器,内部计算方式和所有现有服务器都不一样。

传统服务器靠硅芯片里的电子流动算题,而Iris Nova用“光”来执行矩阵乘法,这可是大模型推理中占比最多的运算。它用的是混合架构:光学张量引擎负责数学计算,数字处理器管调度。光在三维空间里传播,能同时干几百万次并行运算,这是二维硅芯片根本比不了的优势。

EE Times的技术报告说,Lumai声称这款服务器的性能是同等GPU的50倍,功耗却降低90%。更关键的是,他们不是只在实验室吹牛,已经用Iris Nova对Meta开源的Llama 8B和70B两个版本的大模型做了实时推理演示,证明在十亿参数量级的模型上真能用,不是纸上谈兵。

想想看:同样的电费,能支撑10倍的计算能力;同样规模的数据中心,电费和碳排放直接砍到原来的十分之一。这要是真的,整个AI行业都得变天!

英国政府支持的ARIA机构项目总监苏拉杰·布拉姆哈瓦尔直接说:“现在AI处理器的需求爆炸,必须找新的扩展办法,Lumai正引领潮流,证明光处理器就是这条路。”这句话分量够重,连官方背景的专家都认可,说明这技术不是瞎搞。

不过话说回来,光计算也不是第一次有人尝试。过去几十年,好多公司想把光子器件放进通用计算,但大多栽在三个坎上:精度控制、可编程性、规模化制造。

Lumai用的是基于透镜的三维光学系统,和以前的方案不一样,但它能不能在真实数据中心里长期稳定运行,能不能和现有的工作流兼容,还得等更大规模的部署检验。毕竟,实验室里的成功和商业化落地,还差着十万八千里呢。

现在Lumai已经向超大规模数据中心、云平台、企业和研究机构开放了Iris Nova的评估申请。除了Iris Nova,他们还有容量更大的Aura和Tetra两款服务器,专门对付更高强度的推理负载

CEO郭先新说:“随着行业进入推理时代,我们也跨过了后硅时代的门槛。”这句话听着有点宏大,但确实戳中了整个半导体和AI基础设施行业的焦虑——大家都在找下一个突破口。

你觉得光计算能解决AI的电力危机吗?是真的革命还是昙花一现?如果未来你的手机、电脑都用上光计算芯片,会不会更省电更快?评论区聊聊你的看法,觉得有用的话别忘了点赞收藏转发,让更多人看到这个可能改变AI未来的黑科技!