就在明天(22日),AI的一个重要大会——谷歌Cloud Next '26将在拉斯维加斯启幕。

大家要知道,当前谷歌AI发展速度较快,而这不仅是一场技术发布会,更可能是谷歌在AI与云基础设施领域的一次重要发展方向。

打开网易新闻 查看精彩图片

基于当前的行业态势与公开信息,同时当前市场资金对AI的关注度也比较高。

所以,所以本文将从商业生态、技术底座与产业结构三个维度,来看看本次大会的核心看点与底层逻辑。

技术突破:OCS光交换

在基础设施层面,本次大会重要的技术或看点在于OCS(光电路交换机)的规模化应用。

这是谷歌TPU生态区别于英伟达GPU生态的“非对称优势”。

OCS技术主要是将AI算力集群的互联从“电时代”带入“光时代”,解决了大模型训练中“通信墙”与“功耗墙”的双重难题。

极致的性能参数:

谷歌计划在2026年部署15,000台300端口的OCS交换机

这种基于MEMS微镜阵列的技术,通过物理光路直连,实现了单跳延迟小于1微秒(电交换的千分之一),且功耗仅为同规格电交换机的1/30。

打开网易新闻 查看精彩图片

架构结构逻辑:

传统电交换需要“光-电-光”转换和复杂的数据包解析,而OCS实现了“速率透明”。

这意味着从800G升级到1.6T甚至3.2T,只需更换边缘光模块,无需改动核心交换机底座,预计可降低50%以上的资本性支出。

实际效能:

参考谷歌公布的数据,在TPU v7(9216卡)集群中,谷歌仅用48台OCS就实现了万卡互联。

这种高密度、低延迟的架构,是支撑万亿级参数模型训练的关键。

所以本次大会OCS方向或许是一个值得关注的重点之一。

生态维度

谷歌AI业务的增长逻辑正在发生质变,从单纯的算力租赁和模型API调用,进化为全栈式的企业级AI解决方案。

AI正在从“对话工具”升级为“生产力员工”,谷歌通过Gemini与Vertex AI构建了闭环生态。

规模化落地验证:

根据谷歌财报数据,截至2025年底,超过12万家企业使用Gemini模型,付费席位突破800万。

这一数据证明,谷歌已成功跨越了AI技术的早期采用鸿沟,进入了规模化商业变现期。

打开网易新闻 查看精彩图片

Agent(智能体):

本届大会的首要主题是“Agentic AI”。谷歌正推动AI从被动问答转向主动规划。

通过Vertex AI平台,企业不仅能构建模型,更能部署能够跨系统执行复杂任务的“数字员工”。

全栈壁垒:

谷歌不仅服务于自身,更通过与Anthropic、OpenAI、Meta等头部厂商的合作,确立了其的地位。

无论大模型战场谁胜谁负,谷歌的TPU与云服务都是不可或缺的底层基础设施。

产业维度

谷歌对OCS的大力投入,不仅仅是自身的技术升级,更可能将引爆整个光通信产业链的重构。

OCS的商用爆发标志着光互联技术进入重要发展,将重塑从光模块到光交换机的供应链格局。

供应链增量空间:

谷歌明确表示2026年需要约1.5万台OCS,其中大部分由内部设计并委托代工(如Celestica),部分外购。

这将直接对光通信上游的MEMS器件、光引擎及光模块厂商形成利好。

行业标准的确立:

随着谷歌在TPU v4/v7中的成功实践,OCS有望成为超大规模数据中心的标配。

这种“光进铜退”的趋势,将迫使整个行业加速向全光网架构演进。

估值的重估:

摩根大通指出,谷歌云作为增长最快的业务线,其积压订单同比激增160%。

通过锁定Meta等大客户的多年期TPU租用,谷歌成功将AI资本开支转化为稳定的现金流叙事。

Google Cloud Next '26将可能展示了Gemini在企业端的落地成果,更通过OCS技术揭示了下一代AI算力底座的形态。

对于我们而言,关注点应从单纯的“大模型能力”转向“算力互联效率”与“商业闭环能力”。

当前谷歌正以“软硬一体”的全栈实力,定义AI时代的云基础设施标准。

打开网易新闻 查看精彩图片

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。

如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~