上周有个数据挺扎眼:一个产品经理平均每周要输入"act as a senior architect"47次。不是47条指令,是47次手动选角色。AI明明该自己判断,却逼用户当客服。
这周他把菜单拆了。PRISM Forge的signal-based routing(信号路由)上线,你正常说话,系统自己听信号、组团队。但"build in public"的规矩是连伤疤一起晒——他公开了3次翻车记录。
四层引擎:从"你选"到"它猜"
传统角色系统像餐厅菜单:先选品类,再点单品,最后备注忌口。信号路由更像急诊分诊——你说"auth模块卡住了",系统同时捕捉到两个信号:"卡住了"(需要创造性解题)和"bug"(需要调试验证)。
路由引擎四层递进,每层都有明确的"逃生口":
第一层是硬规则。三条红线直接绕过后续所有逻辑:安全关键词、系统命令、显式角色召唤。这三个检查极轻量,没触发才往下走。
第二层做意图分类。9个类别覆盖从Plan到Challenge的全谱系。关键设计在这里:单条消息可以横跨多个意图。"规划一下auth重构——我觉得太复杂了"同时触发Plan+Build+Challenge,引擎做整体评估,不是"先到先得"。
第三层查信号表。两张表分工明确:共享信号(24个)像多选题,"audit"同时激活Mary(调查)、Quinn(验证)、Boris(结构合规);专家信号(23组)像单选题,"第一性原理"只唤醒Musk(激进还原论者),"英雄之旅"只匹配Campbell(神话叙事者)。
第四层组团队。不是挑一个最佳人选,是搭一个临时班子。你说"auth太复杂,简化重建",引擎派出:Musk主导(激进简化)、Boris审查(结构风险)、Quinn验证(方案可行性)。三个视角,各自署名,没有"混合共识"的模糊声音。
Susie:那个从不露面的指挥官
四层之上有个隐形角色Susie,头衔是Chief of Staff(幕僚长)。用户直接对话的23个角色都是"前台",Susie是唯一的"后台"。
每场对话的第一轮,Susie无条件激活。她扫描项目状态:git提交、待办清单、交接记录、历史记忆,然后输出sitrep(态势报告)。报告格式固定——当前焦点、阻塞项、建议的下一步。之后每轮消息,Susie重新评估,但只在团队阵容变化时才出声。连续5条都在聊规划?团队保持稳定,不刷存在感。
设计者的原话:「Susie的评估是全景式的。所有信号、所有领域匹配、所有跨工作流钩子都是输入。」翻译成人话:她不是"先问意图再查数据库"的流水线,是把所有线索摊在桌上同时看。
三次翻车:当信号互相打架
公开失败案例是这套叙事里最诚实的部分。
第一次翻车:信号冲突。用户说"帮我audit这个API设计,但用第一性原理来审"。共享信号"audit"想拉三人小组,专家信号"第一性原理"只认Musk。引擎选了Musk独挑,但用户实际想要的是"审计流程+激进质疑"的混合视角。修复:给专家信号加权重调节,允许"强制组队"的显式指令覆盖。
第二次翻车:领域误配。用户聊的是"数据库分片策略",但用了大量游戏术语("shard"在玩家嘴里是服务器分区)。信号表把"shard"标记为基础设施专家信号,结果派出了DBA而非游戏策划。修复:增加领域上下文检测,同一关键词在不同项目类型中走不同分支。
第三次翻车最隐蔽:沉默的Susie。用户在第12轮突然切换话题,从"技术方案"跳到"团队沟通",但Susie判断"仍在同一工作流"未触发重组。结果Musk继续用技术语言回应人际关系问题。修复:Susie现在监测"语义漂移度",话题切换超过阈值强制重新分诊。
23个角色,47条激活路径
所有角色都有文档化的激活路径,没有黑箱。23个角色对应47条路径(部分角色多路径触发),24个共享信号+23组专家信号构成完整的"词汇-人格"映射表。
设计者强调:「Nothing is magic -- it's a lookup table with contextual judgment on top.」这句话本身就是对行业黑话的反叛。没有"涌现",没有"智能体网络",就是查表+规则+权重。
这种诚实反而让系统更可预测。用户知道说"第一性原理"一定出Musk,说"审计"一定出三人组,说"我卡住了"会触发创造性解题模式。可预测性降低学习成本,也降低信任成本。
对比之下,那些宣称"AI自动理解你"的产品,用户永远不知道下一秒会冒出什么人格。菜单系统的确定性是伪确定性——你得记得菜单在哪。信号路由的确定性是真确定性——你说话的方式本身就是指令。
47次"act as"的摩擦,本质是控制权错位。用户被迫承担本应由系统承担的模式识别工作。信号路由把控制权还回去:你说人话,系统做功。
但代价是透明度的压力。当AI出错时,菜单系统可以甩锅"你选错了角色";信号路由必须解释"为什么这次听错了信号"。公开三次翻车,是在预支信任。
现在的问题是:当你的AI开始"懂你",你是更放心,还是更警惕?
热门跟贴