新智元报道
编辑:YHluck
【新智元导读】AI能力狂飙,人却越来越焦虑。模型能力每隔几个月翻一番,但人们不是怕它不够聪明,而是怕它聪明得不受控。当下用AI,就像带了一群神通广大却不服管的徒弟,没有分工制衡,产出全凭运气!这背后,是一个被所有人忽视的架构性缺陷。有人决定从根本上解决它。
一个让所有人不安的反常识,正在悄悄发生。
你有没有过这种经历——
让AI写个脚本,它洋洋洒洒给你100行代码,语气笃定:「已完成。」
你跑起来,报错。
贴回去,它说「抱歉,修复如下」。
再跑,换了个错。
第五次,你开始怀疑:
我到底是在用工具,还是在伺候工具?
微软2025年的数据,说出了你不敢承认的事:
知识工作者每周平均花4.3小时——不是用AI,是在查AI有没有骗你。
MIT研究揭示了一个更令人不安的事实:AI模型在生成错误内容时,使用自信语气的概率比生成正确内容时高出34%。
它越错,听起来越确定。
你正在变成提示词喂养员
过去这一年,你有没有意识到一件事:
不是AI变成了人,而是人变成了AI的工具——喂数据、写提示词、验输出、再喂数据。循环往复。
这不是AI解放了你。这是你在伺候AI。
今天多数人用AI,像什么?
像让一个「什么都干」的孙悟空,既去找经书、又做笔记、又写汇报、还替你做判断。它本事大,但你看不见过程;它真出错时,你也不知道错在路上、错在理解、还是错在最后那张嘴。
所以现在最常见的局面,不是「AI帮你干活」,而是「AI先生成,你再返工」。一旦发现不对,只能整段重来。
500年前,人类已经解决过这个问题
文艺复兴时期,一幅伟大画作的诞生需要整个工坊。
大师负责构思和最终审定。研磨颜料的学徒、画背景的助手、负责人物面部的画师——每个人各司其职,每道工序清晰可见。
这不是效率低下,这是质量的保证机制。
今天的AI,走了一条截然相反的路:我们把所有任务——检索、分析、写作、判断——全部塞给同一个模型,在同一个对话框里,一次性完成。
输出是融合的。推理是隐藏的。错误是混合的。当结果不对时,你不知道哪一步出了问题,只能重新提问,重新等待,重新希望。
三个真实场景,三面镜子
场景一:研究者 vs 几百篇读不完的论文
他试过最新的Deep Research工具。结果不错,但有一个致命问题:自己没有参与其中。
AI替你把文献读完了,给你一个总结。但那个总结是按它的理解组织的,不是按你的研究框架组织的。想调整方向,只能重新提问,重新等半小时,重新得到一个你依然无法完全信任的总结。
真正的文献调研不是信息检索,是认知建构。需要的不是答案,是能够跟随你的思维方式生长的过程。
于是他搭了一个「文献研究员」专家,让它主动提问、树状展开假设,每条路径独立推进、独立放弃。研究方向不对?只剪掉那一支,其余继续生长。每个结论可以追溯到具体文章,每篇文章可以追溯到具体检索逻辑。
「我希望我读博的时候有这个。」
场景二:父亲,想给孩子讲一个只属于她的故事
他的孩子喜欢独角兽,喜欢冒险,已经把家里绘本听了不知道多少遍。
作为父亲,他想做一本定制绘本——以孩子为主角,用她能听懂的语言,讲一个只属于她的故事。
问题是:他不是作家,也不是画师。
按普通方式用AI,他也能拼出来:先写故事,再改提示词,再调画风。但很快就发现,每一页都要重新解释孩子的年龄、喜好、主角设定;人物形象容易变化,故事节奏容易跑偏,前后页常常不像同一本书。
他没有继续这样做,而是搭了一支可以复用的小团队:故事策划专家、画面描述专家、风格统一专家。这个团队会记住确认过的角色设定和表达风格,下次做新故事,不需要从头解释一遍。
(以下为部分页面摘录)
故事里的情节——独角兽一家没吃饭要挣钱、要住更大的房子、拉着大提琴去夏威夷——不是AI编的,也不是父亲设计的。这是孩子某天夜里做的一个梦,第二天早上,她原原本本地讲给妈妈听。
专家团队做的,只有一件事:把这些只有孩子才梦得出来的念头,变成一页一页可以重读的书。
那个晚上,他没有跟孩子解释什么是AI,什么是提示词。他只是陪着她,听她指着书页上的小女孩说——「这个是我!」
他觉得,值了。
场景三:从研究者到创业者
成为创业者,最具挑战的不是技术决策,是一个人要扮演所有角色。
公司只有几个人,但每天要处理的事一件都不少:新员工入职、竞品动态、用户反馈、代码审查、决策依据……每件事单独看都不复杂,但每件事都可能在最忙的时候掉链子。
他给每个高频任务配了专家:情报专家、决策专家、工程专家、用户专家。
第一版上线,发现工程专家的一个配置没对齐,影响了代码审查准确率。
修复时间:一分钟。只改了工程专家,其余三个继续跑,完全不受影响。
「以前改一个流程,要把所有人重新拉进来开会。现在改一个专家,其他人不知道,也不需要知道。」
两个「不按剧本走」的用户
一位畜牧业主找到了他们。他管理着一个中型养殖场,困扰于如何根据动物体重、天气变化和市场价格,动态调整每天的饲喂策略。
他试过Excel,试过各种AI工具。AI能给答案,但给不了解释。他是个有三十年经验的农场主,他不需要答案,他需要的是能让他看懂、能让他质疑的推理过程。
「这是我第一次觉得AI在跟我说话,而不是在跟自己说话。」
不久之后,一家制药公司的研究团队也找来了。他们不需要通用AI,他们需要一个真正懂自己化合物库、懂自己内部数据的领域专家。
从养殖场到实验室——这个问题,比他们以为的更普遍。
技术内核
为什么是「团队」,不是「助手」
这里有一个合理的质疑:把一个任务拆成几个提示词,和所谓的「AI专家团队」,到底有什么本质区别?
区别在三个地方,而且每一个都很重要。
① 真实的技能分离,不是角色扮演
每个专家有不同的工具权限和知识库。研究员可以访问学术数据库,分析师可以调用计算引擎,写作者专注语言输出不做检索。这不是在同一个模型上贴不同的名字标签,这是功能层面的真实分工。
② Embedded Context——越用越懂你
每个专家维护自己的持久记忆。你的偏好、你的标准、你纠正过的错误、你反复强调的原则——专家记住,下次自动执行。你不需要在每次对话开始时重新解释自己在做什么。你的团队,已经知道了。
而不是每次都像在和一个失忆的实习生重新开会。
③ AI人才市场——最好的专家,由领域从业者来造
最好的「知识产权诉讼研究员」专家,应该由一个做了二十年IP诉讼的律师来造。最好的「临床试验数据分析师」,应该由在医院跑了十年数据的研究员来造。
这些专家,将来可以在市场上流通——由领域从业者创造,在同行之间共享,随着使用不断进化。
这是AI的App Store时刻。只不过上架的不是软件,是专家智能。
这是一个分水岭
2025-2026年,AI Agent成了整个行业最热的词。
但冷静看一下市面上的产品,第一波浪潮面向的几乎都是开发者——你需要懂API,懂配置文件,懂如何调试复杂的工作流。
普通用户拿到这些工具,依然是等待者,依然是验证者,依然是提示词喂养员。
当AI的能力以指数速度增长,决定用户体验质量的,不再是模型的参数规模,而是人在这个系统里扮演的角色。
旁观者,还是管理者?等待者,还是决策者?
这不是技术问题,这是设计选择。
黑盒模式下,你是提示词喂养员;团队模式下,你是管理者。区别不在模型大不大,而在你能不能真正管得住它。
MorphMind目前已开放公测(下方二维码注册):morphmind.ai
也许真正值得试的,不只是一个更强的AI,而是一种新的协作方式。
如果是你,你会用AI专家团队做的第一件事是什么?
评论区见。
热门跟贴