当AI工具给出复杂的可行性分析时,我们却习惯于只抓取一句'结论'就做出决策。本文通过一个AI小镇项目的真实案例,揭示了AI时代产品决策的三大误区,并给出五条实用建议,教你如何真正读懂AI的限定条件与隐藏价值。在AI风险评估越来越精准的今天,产品人最稀缺的能力恰恰是敢于挑战'无成功先例'的勇气。

打开网易新闻 查看精彩图片

前几天一个朋友跟我聊他的产品想法:他想做一个“AI小镇”,里面所有NPC都由AI驱动,可以自由生活、互相交往,玩家进去之后甚至分不清身边的人是真人还是AI。

听起来很科幻,但他眼里有光。

然后他说,“不过Kimi说这个做不出来,我打算放弃了。”

我让他把Kimi的回复甩给我看。看完我有点哭笑不得——

Kimi根本没说“做不出来”。

ta写了一篇结构完整的可行性分析,从核心机制讲到伦理风险,最后的原话是:“单机版/小规模可行,但作为商业化MMO仍无成功先例。”

ta甚至专门用一整节讲了“如果要做,可以怎么降维”,给了从小规模起步的具体路径。

但我朋友只记住了一句话:“无成功先例”。

更尴尬的是,这句话本身也站不住脚。

斯坦福和Google的研究团队2023年发过一篇论文叫GenerativeAgents,做了一个叫Smallville的小镇,25个AI角色自主生活两天,自己计划日程、谈恋爱、组织情人节派对。代码开源在GitHub上。

同一年八月,a16z直接联合Convex出了一个叫AITown的开源框架,README第一段就写着这套架构“适合从玩具项目到可扩展的多人游戏”。

也就是说,我朋友放弃的那一刻,距离实现他想法的开源代码躺在GitHub上、只差一次gitclone。

我后来一直在想这件事。

问题不在Kimi,Kimi答得其实挺负责任的。它给了分层结论,给了降维路径,甚至给了伦理提醒。

问题在于我们用AI的方式正在悄悄改变。

过去我们读一份调研报告,会自然地看完全篇、抓住主结论、注意限定条件。

现在我们读AI的回答,越来越像在刷短视频——往下滑,找到那句最像“答案”的话,截图,关掉。

而AI的回答恰恰是最不能这样读的东西。它不是一个判断,它是一个加权过的分布。

它告诉你的从来不是”行/不行”,是”在A条件下行、在B条件下不行、在C条件下没人试过”。你只取一段,就等于把一个三维的回答压扁成一个点。

然后你拿着那个点,做了一个本来不该这么做的决定。

一、我们是怎么把AI答案压扁的

我后来追问过我朋友:为什么Kimi那一长串你只记住了“无成功先例”五个字?

他想了想,说:“因为别的都太复杂了。

这个回答其实很坦诚,也很要命。我猜很多人都是这样——不是不想读完,是读完之后大脑会自动做一道压缩题:这一堆东西到底是行还是不行?给我个结论。

我自己琢磨了一下,至少有三层东西在推着我们这么干:

第一层是阅读习惯被短视频驯化了。

我们在抖音、小红书上被训练了好几年的“前三秒抓重点”,刷信息流的肌肉记忆已经迁移到AI对话窗口里。

AI的回答经常排版很整齐,有加粗、有小标题、有结论段。

——这恰恰给了我们一个偷懒的台阶:直接滑到最后那段看结论。

问题是AI的结论段经常是最不该单独看的那一段,因为它是建立在前面所有限定条件之上的。

前面的“如果”、“取决于”、“小规模”、“在X场景下”才是真正的产品决策依据,结论只是一个加权平均后的概率值。

第二层是决策疲劳。

问AI这件事本身,常常发生在我们已经不想再多想的时刻。

“帮我看看这个想法行不行”

“帮我判断一下要不要做”。

这些prompt的潜台词其实是“我想把这道题甩给你”。

一旦带着这个心态去读回复,你就会自动忽略所有“还需要进一步分析”的部分,只抓那个最像盖棺定论的词。

AI越是给你一个“细致全面”的回答,你越觉得疲惫,越想直接看结论。

一个分层的、有条件的、留白的答案,反而满足不了你那一刻的心理需求。

第三层是对确定性的本能渴望。

“可行/不可行”是个简洁优美的二元世界。

“在A条件下可行、在B条件下需要降维、在C条件下没人试过”是一个让人头疼的多元世界。

前者让你立刻能做决定(哪怕是放弃的决定),后者让你必须继续思考。

我们的大脑会偷偷给前者打高分,因为它便宜。

这三层叠在一起,导致一件很反直觉的事:AI的回答质量越高,我们越容易读错。

因为越好的回答越分层、越有限定、越留白——而这些恰恰是我们最不想读的东西。

二、怎么读AI,才不会被自己劝退

下面这几条是我自己摸索出来的,谈不上方法论,但确实改变了我和AI打交道的胜率:

第一:先找限定条件,再看结论。

拿到AI的回答,第一遍读的时候别看结论段,先在全文里搜“如果”、“在……情况下”、“前提是”、“假设”、“取决于”这些词。

把它们标出来,你会发现AI的真实立场往往藏在这些词后面,而不在那段总结里。

我朋友如果这么读Kimi,他会先看到“降维可行性”那一节,整个心态就完全不一样了。

第二:看到“无先例”先停三秒。这是AI最容易给错的一类判断。

“没有先例”在LLM的世界里有三种可能:

真的没有

训练数据里没有

有但模型当时没想起来

三种里你只需要花十分钟搜一下,就能区分清楚。

我朋友那个小镇,他只要搜一下“AIagentssimulatedtown”或者“generativeagentsgame”,十秒内就会看到Smallville和AITown。

AI让查证变得几乎免费了,所以放弃查证才是最大的亏。

第三:把“难度高”翻译成“我下一步要解决什么”。

AI说“这件事很难”是没用的信息,因为所有值得做的事都很难。

有用的问法是把它逼具体:

“如果一定要做,第一个必须解决的技术问题是什么?”

“哪一步是整个项目里最容易失败的?”

“有没有人试过类似的、但失败了?他们卡在哪儿?”

——这些追问会把“高难度”分解成三五个具体的工程问题,每一个都是你可以判断“我能不能搞定”的。

模糊的难变成具体的难,行动就出来了。

第四:让AI自我反驳一次。

这一招特别有用:当AI给你一个比较确定的结论时,加一句“如果有人完全不同意你这个结论,他会基于什么论据反驳?”

AI会立刻给你一套相反的论证,质量经常比第一版还高。

它不是在骑墙,它是在告诉你:

这个问题本来就有两面,我刚才只是给了你一面。多读这一面,你才能看到全貌。

第五:永远把AI当资深同事,不是当裁判。

资深同事会给你分析、给你警告、给你历史教训,但最后做不做这个项目,决定权在你。

如果你把AI当裁判,你就把决定权交了出去——而AI从来没想接这个权力,是你自己塞过去的。

三、回到产品视角:AI时代PM最稀缺的能力是什么

在公司里,我们都遇到过一种资深同事:每个新项目提案,他都能精准地告诉你这件事的十二个风险点、三个历史失败案例、五个团队短板。

他说的全是对的,每一句都站得住脚,但你跟他共事久了会发现一个问题——他从来没主导做出过任何新东西。

AI现在越来越像这种同事。它读过的失败案例比任何人都多,它能列出风险的能力比任何人都强,它会的限定条件比任何人都细。它会成为公司里最尽职的“风险评估师”。

但产品的突破从来不是从风险评估里长出来的。

iPhone在2007年发布前,每一个手机行业老炮都能告诉你电容屏没有键盘反馈、电池撑不过一天、塞班生态固若金汤——这些判断当时全是对的。

Notion在2016年起步的时候,AI如果存在并被问到“做一个集文档、数据库、wiki于一体的工具能成吗”,它一定会列出Evernote、GoogleDocs、Confluence三座大山,然后告诉你“细分赛道无成功先例”。

真正的产品判断力,从来不是“这件事风险大不大”,而是“这件事即便风险大,是不是值得我赌一把”。

前者是分析题,后者是判断题。AI越来越擅长前者,但后者它永远做不了。

因为后者需要的不是数据,是你对一个还不存在的未来的信念。

在AI时代,PM真正稀缺的能力,我觉得不是“会写prompt”,也不是“能调通工作流”。

这些都会被工具一波一波地碾平。真正稀缺的是这两样:

一是知道AI的输出该信哪一部分、不该信哪一部分,也就是上面那五条阅读姿势。

这件事看起来很基础,但它决定了你的判断力会被AI抬高还是被AI拉平。

二是在AI说“风险很高”之后,还愿意往前走一步的那份执拗。

这件事AI帮不了你,因为它的训练目标就是给出最稳妥的回答。

而新东西,永远是从最不稳妥的那一边长出来的。

回到我朋友

前几天我把Smallville的论文和AITown的GitHub仓库甩给他,他沉默了一会儿,回了我四个字:“我再想想。”

我不知道他最后会不会真的去做那个AI小镇。但我希望他至少明白一件事:

让他放弃的不是Kimi,是他自己读Kimi的方式。

AI不会替你做产品决策,它只是把你做决策的过程变快了、变便宜了、也变危险了。

因为现在你可以在五分钟之内、基于一份你没读完的报告、做完一个本来需要思考一周的决定。

而这个时代真正的稀缺品,可能恰恰是那个愿意把AI那份报告读完、并且读完之后还敢自己拍板的人。