一套让AI实时生成界面的协议,刚刚从0.5跳到0.9。Google没开发布会,但生态已经塞进React、Flutter、Angular和Vercel。

谁在推动这件事

打开网易新闻 查看精彩图片

Google的A2UI团队。他们2024年放出0.5版本时,业界还在争论"AI该不该碰前端"。

现在0.9直接落地:框架无关(framework-agnostic),意味着不绑架你用任何技术栈。React、Flutter、Lit、Angular都有官方渲染器,连Vercel的json-renderer也接进来了。

核心逻辑很简单——AI代理(AI agents)不再只是返回文字,而是能调用你现有的组件库,当场拼出一个界面。

技术细节里藏着什么信号

三个新增能力值得拆解:

第一,Client-defined functions。以前AI生成的界面是"只读"的,现在用户操作可以触发客户端自定义函数。这意味着表单提交、支付流程这些重交互场景终于能跑通。

第二,Client-server数据同步。AI生成的界面不再是孤岛,能和你现有的数据层实时对齐。

第三,Agent SDK走Python优先,Go和Kotlin在排队。这个选择很Google——先抓AI开发者,再补移动端和企业级。

生态扩张速度比版本号跳得更快:AG2、A2A 1.0、Oracle Agent Spec已经接入。Rebel App Studio做了个"个人健康助手",Very Good Ventures搞了个"人生目标模拟器"当样板。

为什么是现在

两个背景不可忽视。

一是A2A(Agent-to-Agent)协议也在快速迭代。Google同时在推多代理协作标准,A2UI解决的是"代理怎么跟人交互",A2A解决的是"代理之间怎么交互"。两条线并行,说明Google在押注一个代理泛滥的未来——每个代理都需要动态界面,但不可能每个都配一个前端团队。

二是Vercel的json-renderer被纳入。这家公司的AI SDK已经是大量开发者的默认选择,Google选择兼容而非对抗,是在用标准换生态位。

文档和示例已经挂在A2UI.org。对于正在做AI产品的团队,这相当于拿到了一份"如何让AI接管界面层"的参考答案。

但真正的考题还没出现:当AI能随时重组你的UI,设计系统的边界在哪里?品牌一致性怎么保证?这些不是技术问题,是产品治理问题——而0.9版本还没给答案。