打开网易新闻 查看精彩图片

先从一个略显残忍的问题开始:你上一份PRD,是写给谁看的?工程师?老板?跨部门同学?

那我再问:你上一份PRD里,写的最多的是什么?

我猜是交互逻辑、页面流程、边界条件处理——说白了,是在”教人怎么做”。

不是因为它写得多好,而是因为我突然意识到:

它写的那份PRD,其实是给另一个AI看的。

而我们,正站在这件事刚刚开始发生的时间节点上。

说一个大家可能没注意到的现象。

过去几年,PRD这个东西的”核心读者”其实悄悄换了一批。

但现在呢?

现在的AI Agent,不需要你把每一步都写清楚。你只要告诉它要什么结果,它自己会规划路径、调用工具、分步执行。

这意味着,如果你还在用”教人怎么做”的思路写PRD,你正在做一件效率极低的事——你在用翻译工的语言,试图和一个能自己看地图找路的系统对话。

我知道有人会说:Agent还没那么智能,很多场景还是需要精确指令。

这是对的,但这句话的有效期正在迅速缩短。

根据谷歌云基于全球3466位企业决策者的调研,到2026年,员工的关键职责将是制定战略,并监督负责具体任务执行的智能体系统——员工使用工具的方式,从”下指令”简化为”表达意图”。

这个变化直接影响PM的工作内容。

以前我们写的是:

现在我们要写的是:

前者是流程设计,后者是授权边界设计。

打开网易新闻 查看精彩图片

在研究了一段时间Agent产品之后,我总结出一个自己用得比较顺手的思考框架,叫**”Agent产品铁三角”**。

三个顶点,分别是:用户意图、Agent能力边界、人类监督节点。

画出来大概是这样:

用户意图不是”用户要什么功能”,而是”用户真正想达成的状态是什么”。这两者的区别,在Agent时代被无限放大——因为Agent不需要你规定它走哪条路,但它需要知道终点在哪。

Agent能力边界是这个三角里最容易被忽视的一角。很多PM做Agent产品时,要么过度信任(把太多决策权交给AI,结果一出错就是大问题),要么过度保守(处处设置人工审核,AI完全没有发挥空间,效率等于零)。能力边界的设计,本质上是一道”授权题”:哪些事情AI可以自主干,哪些事情必须打断等人拍板。

人类监督节点是这个三角的”安全阀”。不是所有流程都需要人在场,但关键决策、不可逆操作、涉及用户核心利益的环节,一定要有清晰的人工介入机制。这不是不信任AI,而是负责任的产品设计。

这三个角如果失衡,Agent产品就会出问题:

这是一个我觉得被讨论得很不够的话题。

传统产品的核心指标:DAU、留存率、转化率、用户时长……

这些指标有一个共同的底层假设:用户在“使用”产品。

但Agent产品最大的特点是什么?用户可能根本没有”使用”的感知——AI在后台默默把事办了,用户连界面都没打开。

2026年的AI产品,真正的流量不再只是人的注意力,而是”机器的调用请求”——你的服务在AI Agent生态中的接入权,才是真正的新型流量。

在这个背景下,传统指标开始失效,新的评价体系正在形成:

任务完成率(Task Completion Rate)

不是用户有没有点进来,而是AI有没有真正把任务做完。这是衡量Agent智能程度的核心指标——用户发出意图后,Agent无需人类介入即可成功完成任务的比例。

人工介入率(Human Intervention Rate)

在一段时间内,有多少任务需要人工接手处理?这个数字越低,说明Agent越成熟;但如果这个数字低到异常,也要警惕——可能是AI在静默地出错,只是没有被发现。

错误恢复时间(Error Recovery Time)

Agent出错是必然的,问题是出了错能多快被发现、多快被纠正。这个指标决定了用户对产品的信任下限。

任务价值密度(Task Value Density)

这是我自己发明的一个说法,意思是:Agent完成的每项任务,对用户创造了多少实际价值?高频低价值的任务和低频高价值的任务,设计逻辑完全不同,不能混为一谈。

打开网易新闻 查看精彩图片

说点不那么好听的话。

Agent时代对产品团队的要求,和过去不是”升级”的关系,是”换挡”的关系。

有几个能力缺口,是我在和不同团队交流中反复看到的:

缺口一:对“任务失败模式”的理解不足。

传统产品设计异常流程,通常是:404页面、网络错误提示、空状态页。这些都是静态的、可预期的失败。

如果PM对这些失败模式没有深入认知,做出来的产品就是一个没有”安全网”的高空走钢丝——顺利的时候很精彩,出错的时候很要命。

缺口二:对“授权边界”缺乏设计敏感度。

给Agent多少自主权?这个问题没有标准答案,但大多数产品团队目前的做法是两个极端:要么什么都让AI自动干,要么每一步都加人工确认。

真正需要的是”场景化授权设计”——根据任务的可逆性、风险程度、用户情绪状态,动态调整Agent的自主权。

缺口三:无法清晰定义“成功状态”。

传统产品的成功状态很清晰:用户完成了购买、用户注册了账号、用户看完了视频。

但Agent的成功状态经常是模糊的——”帮我整理一下这个项目的进展”,算整理到什么程度才叫完成?”帮我分析竞品”,分析到哪个深度才算够用?

如果PM自己都定义不清楚”成功”长什么样,Agent就会在模糊地带乱跑,要么做太少用户觉得没用,要么做太多越了界。

打开网易新闻 查看精彩图片

说了这么多问题,说点能用的东西。

第一件事:建立你自己的“Agent测试习惯”。

别等着别人给你培训。现在最快的学习路径,是亲自用Agent产品完成一个真实任务,然后认真复盘:它在哪一步理解对了?哪一步偏了?偏了之后怎么纠正的?这个亲身体验,比看任何报告都有价值。

不需要全部推翻,但至少增加这几个模块:

第三件事:主动接触工程侧的Agent能力边界。

第四件事:给你的团队引入一个新角色——“AI体验监督员”。

谷歌云的调研指出,AI技术的快速演进导致专业技能”半衰期”已缩短至4年,科技领域更短。在这种情况下,需要有人专门盯着Agent产品的实际表现——不是看数据报表,而是真人定期体验,寻找那些”AI悄悄做错但数据上看不出来”的问题。

我前几天和一个做了十年产品的朋友聊天,他说了一句话我一直记着:

“AI最让我害怕的不是它会抢我的饭碗,而是它让我意识到,我这十年积累的很多经验,是在一个正在消失的游戏规则里积累的。”

我理解这种感受。但我也觉得,这种感受本身,是一个很好的起点。

因为能感受到”游戏规则变了”的人,至少还在认真打这场游戏。

Agent时代的产品经理,不会消失。但会变成一个完全不同的物种——从”功能翻译官”变成”智能体编导”,从”流程设计师”变成”人机协作架构师”,从”需求分析员”变成”边界定义者”。

这个转变不会一夜发生,但它正在发生。

这,已经比大多数人快了一步。

打开网易新闻 查看精彩图片