我坐在屏幕前看Google Cloud Next '26,原以为只是新模型、更快的接口、几个酷炫演示。但看到第17分钟,我暂停了回放——不是想截图,是需要消化。这感觉不像"AI变强了",更像"我们造东西的方式被换掉了底层协议"。

从"生成一次"到"自己转起来"

打开网易新闻 查看精彩图片

开场演示很温和。JayTee Hazard在做音乐生成,Tina Tarighian在跑视觉创作。但真正让我坐直的不是画面本身,是后台的状态栏——没有"重新运行"按钮,没有"再生成一次"的选项。

它在循环。输入→推理→调用工具→执行→反馈→再来一遍。

我盯着那个流程图看了很久。以前我们习惯了"prompt进、output出"的单向结构,现在变成了一套会自我驱动的系统。区别不在输出质量,在背后的架构逻辑。

这个循环就是agentic系统(智能体系统)的地基。

Sundar Pichai在会上丢出一个数字:~75%的新代码由AI生成,再由工程师审核。我暂停不是因为惊讶,是因为它确认了我们已经感觉到的事——我们不再逐行手写一切,更像从"写函数"转向"审系统"。

六个智能体怎么吃掉一个迁移项目

谷歌内部举了个例子:一次复杂的代码迁移。他们没有扔给一个系统,而是拆了六个角色——规划、执行、验证、模拟、审计、协调。六个智能体协作,速度提升6倍。

这不是"AI辅助我",这是"AI组成了一支团队"。

这个案例让我理解了他们推的Agent Development Kit(智能体开发工具包)到底在干什么。你不是在造一个"更聪明的聊天机器人",而是在定义:

• 这个智能体的专长边界是什么
• 它能调用哪些工具
• 它的记忆怎么沉淀
• 它怎么和其他智能体握手

每个智能体变成:有状态单元 + 记忆 + 工具集。

这感觉像在搭微服务,但连的不是API,是智能之间的协作关系。

MCP和A2A:两个被低估的基础设施

有个细节很微妙但影响深远。Model Context Protocol(模型上下文协议)现在内置了,你的智能体通过上下文调用工具,而不是硬编码接口。MCP本质上是一份"模型与工具之间的契约"。

更意外的是A2A(智能体间通信协议)。智能体现在可以:

• 暴露自己的能力清单
• 被其他智能体动态发现
• 直接调用彼此的方法

比如一个评估智能体暴露这样的结构:

{
"name": "evaluator",
"capabilities": ["validate", "score", "simulate"]
}

另一个智能体可以直接调用:evaluator.evaluate(plan)。

这是动态的多智能体协调,不是预先写死的流程图

UI生成被倒过来了

还有个让我愣住的演示。不是手动建仪表盘、再连数据,而是智能体根据上下文直接生成界面。流程变成:数据产生 → UI自动生成。

这完全颠倒了原来的工作流。我们习惯了先设计界面、再填充内容,现在内容驱动界面。

以及那个被诟病最多的问题——AI记不住事。谷歌的解法是把状态外置,智能体不再是"无状态的prompt-response",而是"有状态的系统→演进的行为"。

Cloud Assist的底层解剖

现场演示了Cloud Assist的故障排查。表面看是"AI帮我看日志",底层拆解开来是:模型 + 日志流 + 上下文 + 工具执行,四层叠在一起做根因推理和建议。

这不是聊天界面套了个壳,是运维工作流的重新设计。

我坐在那儿想:如果今天从零开始搭一个系统,我的决策树已经变了。选模型不再是第一步,先想的是——这个场景需要几个智能体角色?它们怎么分工?记忆存在哪儿?怎么互相发现?

速度是副产品,真正的变化是系统设计的思维模型。

我不觉得"AI会替代开发者",但"开发者"这个角色的定义正在迁移。从实现细节,到设计协作规则;从写代码,到审系统、调角色、管记忆。

Next '26给我的最大冲击不是技术参数,是一种隐约的紧迫感——这套基础设施成熟后,第一批吃透"多智能体协作"设计的人,会建立很难追赶的工程效率差距。这不是工具升级,是生产关系的重新谈判。