打开网易新闻 查看精彩图片

去年这时候,Nvidia手里攥着500亿美元的AI算力订单,已经让市场瞳孔地震。今年GTC 2026,黄仁勋把这个数字改成了1万亿——不是"预计",是"solid backlog"(确定 backlog)。与此同时,OpenAI和Anthropic的年化收入双双冲到250亿美元左右,两三年前还是零。

这个数字背后有个更狠的趋势:推理(inference)正在吃掉所有算力预算。ChatGPT那种一问一答的"单次射击"AI已成往事,深度推理和智能体(agentic AI)让单次查询处理的token数量暴涨几个数量级。用户不会等,速度就是生死线。

OFC 2026(光纤通信大会)和GTC 2026今年撞期,一个在洛杉矶,一个在圣何塞。老参会者注意到一个微妙转向:几年前这里还是电信设备的天下,如今满眼都是数据中心AI的光电方案。两个会场被同一股力量拧在一起——AI算力需要光学互连(optical interconnect)来喂饱。

从海底电缆到机架顶部:光纤的两次征服

光学互连早就征服过互联网。跨洋、跨大陆的高带宽光纤连接,是互联网骨架的骨架。随后它拿下了数据中心的横向扩展链路(scale-out links),那些架顶交换机上一捆捆亮黄色的线缆,全是光纤。

现在,第三波征服要来了。未来五年,所有高带宽数据互连都将变成光学——不是"可能",是"即将"。

驱动这个判断的有三条硬逻辑:

第一,AI需求指数级爬坡,没有见顶迹象。黄仁勋在GTC 2026展示的帕累托曲线(Pareto curve)有两个轴:批量处理(batch)追求单用户低TPS下的最大吞吐量,而智能体场景要高TPS响应速度。新发布的Rubin架构两头兼顾,与Groq LPX集成后,高响应场景能再提一个数量级。

第二,电力是硬天花板。超大规模云厂商(hyperscalers)占Nvidia需求的60%,他们自建芯片的同时,CapEx仍在飙升。原因很现实:同样1兆瓦电力,新架构能带来2倍到35倍的吞吐量提升。每瓦特算力就是真金白银。

第三,2028年的Feynman架构预告了1000+ GPU的巨型pod。这种规模下,铜缆的物理极限暴露无遗——距离、带宽密度、功耗,全数触顶。

三种材料、三项技术:光学的武器库

三种材料、三项技术:光学的武器库

实现全光数据中心,需要三类材料并肩作战:CMOS(传统硅基电路)、磷化铟(InP, indium phosphide)、硅光(SiPho, silicon photonics)。

激光器、共封装光学(CPO, co-packaged optics)、光路开关(OCS, optical circuit switch)将无处不在。CPO把光学引擎塞进芯片封装,消灭电信号在PCB上的损耗;OCS让光路可编程重构,拓扑灵活性碾压传统电交换。

这些不是实验室概念。OFC 2026的人潮和热情说明,产业链已经在为量产做准备。

铜缆的黄昏?

数据中心里还有大量铜缆在服役,尤其是机架内部的短距连接。但"短距"的定义正在收缩。当GPU pod膨胀到1000+规模,当CPO把光学端口推到芯片边缘,铜的性价比优势区间被不断挤压。

这不是"铜死光生"的戏剧叙事,是物理极限下的成本重算。带宽密度每翻一倍,铜的功耗和信号完整性代价就陡峭一分。光学方案在下行成本曲线,铜在上行。

五年窗口期,足够让新建数据中心彻底倒向全光架构。存量改造会慢一些,但CapEx的投票权在超大规模云厂商手里——而他们正是最激进的那批。

黄仁勋的1万亿订单里,有多少已经内定了光学互连的升级路径?OFC会场的人潮,有多少工程师正在把PPT里的CPO和OCS变成产线图纸?这两个问题,大概指向同一个答案。