打开网易新闻 查看精彩图片

新智元报道

编辑:YHluck

【新智元导读】AI能力狂飙,人却越来越焦虑。模型能力每隔几个月翻一番,但人们不是怕它不够聪明,而是怕它聪明得不受控。当下用AI,就像带了一群神通广大却不服管的徒弟,没有分工制衡,产出全凭运气!这背后,是一个被所有人忽视的架构性缺陷。有人决定从根本上解决它。

一个让所有人不安的反常识,正在悄悄发生。

你有没有过这种经历——

让AI写个脚本,它洋洋洒洒给你100行代码,语气笃定:「已完成。」

你跑起来,报错。

贴回去,它说「抱歉,修复如下」。

再跑,换了个错。

第五次,你开始怀疑:

我到底是在用工具,还是在伺候工具?

微软2025年的数据,说出了你不敢承认的事:

知识工作者每周平均花4.3小时——不是用AI,是在查AI有没有骗你。

MIT研究揭示了一个更令人不安的事实:AI模型在生成错误内容时,使用自信语气的概率比生成正确内容时高出34%。

它越错,听起来越确定。

你正在变成提示词喂养员

过去这一年,你有没有意识到一件事:

不是AI变成了人,而是人变成了AI的工具——喂数据、写提示词、验输出、再喂数据。循环往复。

这不是AI解放了你。这是你在伺候AI。

今天多数人用AI,像什么?

像让一个「什么都干」的孙悟空,既去找经书、又做笔记、又写汇报、还替你做判断。它本事大,但你看不见过程;它真出错时,你也不知道错在路上、错在理解、还是错在最后那张嘴。

所以现在最常见的局面,不是「AI帮你干活」,而是「AI先生成,你再返工」。一旦发现不对,只能整段重来。

500年前,人类已经解决过这个问题

文艺复兴时期,一幅伟大画作的诞生需要整个工坊。

大师负责构思和最终审定。研磨颜料的学徒、画背景的助手、负责人物面部的画师——每个人各司其职,每道工序清晰可见。

这不是效率低下,这是质量的保证机制。

今天的AI,走了一条截然相反的路:我们把所有任务——检索、分析、写作、判断——全部塞给同一个模型,在同一个对话框里,一次性完成。

输出是融合的。推理是隐藏的。错误是混合的。当结果不对时,你不知道哪一步出了问题,只能重新提问,重新等待,重新希望。

三个真实场景,三面镜子

场景一:研究者 vs 几百篇读不完的论文

他试过最新的Deep Research工具。结果不错,但有一个致命问题:自己没有参与其中。

AI替你把文献读完了,给你一个总结。但那个总结是按它的理解组织的,不是按你的研究框架组织的。想调整方向,只能重新提问,重新等半小时,重新得到一个你依然无法完全信任的总结。

真正的文献调研不是信息检索,是认知建构。需要的不是答案,是能够跟随你的思维方式生长的过程。

于是他搭了一个「文献研究员」专家,让它主动提问、树状展开假设,每条路径独立推进、独立放弃。研究方向不对?只剪掉那一支,其余继续生长。每个结论可以追溯到具体文章,每篇文章可以追溯到具体检索逻辑。

「我希望我读博的时候有这个。」

场景二:父亲,想给孩子讲一个只属于她的故事

他的孩子喜欢独角兽,喜欢冒险,已经把家里绘本听了不知道多少遍。

作为父亲,他想做一本定制绘本——以孩子为主角,用她能听懂的语言,讲一个只属于她的故事。

问题是:他不是作家,也不是画师。

按普通方式用AI,他也能拼出来:先写故事,再改提示词,再调画风。但很快就发现,每一页都要重新解释孩子的年龄、喜好、主角设定;人物形象容易变化,故事节奏容易跑偏,前后页常常不像同一本书。

他没有继续这样做,而是搭了一支可以复用的小团队:故事策划专家、画面描述专家、风格统一专家。这个团队会记住确认过的角色设定和表达风格,下次做新故事,不需要从头解释一遍。

(以下为部分页面摘录)

打开网易新闻 查看精彩图片

故事里的情节——独角兽一家没吃饭要挣钱、要住更大的房子、拉着大提琴去夏威夷——不是AI编的,也不是父亲设计的。这是孩子某天夜里做的一个梦,第二天早上,她原原本本地讲给妈妈听。

专家团队做的,只有一件事:把这些只有孩子才梦得出来的念头,变成一页一页可以重读的书。

打开网易新闻 查看精彩图片

那个晚上,他没有跟孩子解释什么是AI,什么是提示词。他只是陪着她,听她指着书页上的小女孩说——「这个是我!」

他觉得,值了。

打开网易新闻 查看精彩图片

场景三:从研究者到创业者

成为创业者,最具挑战的不是技术决策,是一个人要扮演所有角色。

公司只有几个人,但每天要处理的事一件都不少:新员工入职、竞品动态、用户反馈、代码审查、决策依据……每件事单独看都不复杂,但每件事都可能在最忙的时候掉链子。

他给每个高频任务配了专家:情报专家、决策专家、工程专家、用户专家。

第一版上线,发现工程专家的一个配置没对齐,影响了代码审查准确率。

修复时间:一分钟。只改了工程专家,其余三个继续跑,完全不受影响。

「以前改一个流程,要把所有人重新拉进来开会。现在改一个专家,其他人不知道,也不需要知道。」

两个「不按剧本走」的用户

一位畜牧业主找到了他们。他管理着一个中型养殖场,困扰于如何根据动物体重、天气变化和市场价格,动态调整每天的饲喂策略。

他试过Excel,试过各种AI工具。AI能给答案,但给不了解释。他是个有三十年经验的农场主,他不需要答案,他需要的是能让他看懂、能让他质疑的推理过程。

「这是我第一次觉得AI在跟我说话,而不是在跟自己说话。」

不久之后,一家制药公司的研究团队也找来了。他们不需要通用AI,他们需要一个真正懂自己化合物库、懂自己内部数据的领域专家。

从养殖场到实验室——这个问题,比他们以为的更普遍。

技术内核

为什么是「团队」,不是「助手」

这里有一个合理的质疑:把一个任务拆成几个提示词,和所谓的「AI专家团队」,到底有什么本质区别?

区别在三个地方,而且每一个都很重要。

① 真实的技能分离,不是角色扮演

每个专家有不同的工具权限和知识库。研究员可以访问学术数据库,分析师可以调用计算引擎,写作者专注语言输出不做检索。这不是在同一个模型上贴不同的名字标签,这是功能层面的真实分工。

② Embedded Context——越用越懂你

每个专家维护自己的持久记忆。你的偏好、你的标准、你纠正过的错误、你反复强调的原则——专家记住,下次自动执行。你不需要在每次对话开始时重新解释自己在做什么。你的团队,已经知道了。

而不是每次都像在和一个失忆的实习生重新开会。

③ AI人才市场——最好的专家,由领域从业者来造

最好的「知识产权诉讼研究员」专家,应该由一个做了二十年IP诉讼的律师来造。最好的「临床试验数据分析师」,应该由在医院跑了十年数据的研究员来造。

这些专家,将来可以在市场上流通——由领域从业者创造,在同行之间共享,随着使用不断进化。

这是AI的App Store时刻。只不过上架的不是软件,是专家智能。

这是一个分水岭

2025-2026年,AI Agent成了整个行业最热的词。

但冷静看一下市面上的产品,第一波浪潮面向的几乎都是开发者——你需要懂API,懂配置文件,懂如何调试复杂的工作流

普通用户拿到这些工具,依然是等待者,依然是验证者,依然是提示词喂养员。

当AI的能力以指数速度增长,决定用户体验质量的,不再是模型的参数规模,而是人在这个系统里扮演的角色。

旁观者,还是管理者?等待者,还是决策者?

这不是技术问题,这是设计选择。

黑盒模式下,你是提示词喂养员;团队模式下,你是管理者。区别不在模型大不大,而在你能不能真正管得住它。

MorphMind目前已开放公测(下方二维码注册):morphmind.ai

也许真正值得试的,不只是一个更强的AI,而是一种新的协作方式。

如果是你,你会用AI专家团队做的第一件事是什么?

评论区见。