你有没有想过,为什么同一个Copilot,在不同人手里表现完全不同?有人能调数据,有人只能看摘要,有人甚至打不开某些文件。这不是bug,是微软故意设计的。

原文作者Aakash Rahsi干了13年IT咨询,专门研究PowerShell自动化和云架构。他最近提出一个叫RAHSI Framework的东西,核心就一句话:Copilot正在从"帮你找东西"变成"替你执行东西"。

打开网易新闻 查看精彩图片

这个转变很隐蔽,没有发布会,没有大新闻。但它改变了企业AI的底层逻辑。

一张图看懂:执行层到底指什么

传统的企业工具,比如搜索、报表、仪表盘,解决的是"信息在哪"的问题。Rahsi观察到一个新阶段:Copilot开始处理"能不能做"的问题——总结、推理、转换、推荐、触发操作,横跨Microsoft 365和Azure。

关键区别在这里:生成内容只是表面,真正的执行需要穿越一道"信任边界"。

这道边界由八个要素构成:提示词、权限、工作流、敏感度标签、Microsoft Purview治理、Entra ID身份、执行上下文,以及人机意图之间的信任关系。Rahsi把这八个要素串成一张架构图,命名为RAHSI Framework。

他的原话是:「执行不是关于AI能生成什么,而是关于它被允许在什么企业上下文中查看、推理、转换和行动。」

换句话说,同一个Copilot,在A员工手里可能只能读公开文档,在B员工手里却能调用财务数据生成预测——这种差异不是随机噪声,是系统设计好的行为响应。

为什么"信任边界"成了核心架构问题

Rahsi把信任边界定义得很具体:它决定Copilot能访问什么、能总结什么、能推理什么、能转换什么、能推荐什么、能在运营层面支持什么。

这六个"能什么"层层递进,从数据访问到最终行动,每一步都受边界约束。

企业IT过去习惯了"统一体验"的思维:同一个软件,所有人用起来差不多。但Copilot打破了这套逻辑。它根据你的身份、你的权限、你接触的文件标签、你所在的工作空间,动态调整能力边界。

Rahsi认为这不是需要修复的问题,而是需要理解的哲学。微软的设计意图很明确:AI的执行能力必须与企业的治理结构对齐,而不是凌驾于其上。

这带来一个实操层面的挑战。企业架构师不能再把Copilot当成一个单一产品来部署,而要把它当成一组可配置的执行能力,分散在不同的信任边界内。

从聊天界面到治理表面的转变

Rahsi给Operational Copilots的定位很精准:不是孤立的聊天界面,而是受治理的执行表面。

这个区分很重要。"聊天界面"让人联想到ChatGPT那种开放式对话,问什么答什么。但企业场景下,Copilot的响应受限于Purview的数据治理策略、Entra ID的身份验证、敏感度标签的访问控制。

用户感知到的是"Copilot有时好用有时不好用",但底层是企业在用这些摩擦点来 enforce 合规。

Rahsi的框架试图把这种隐性设计显性化。他建议企业把"Copilot被允许做什么"这个问题放在AI架构的中心位置,而不是事后补丁。

这和他13年的咨询经验有关。他见过太多企业在自动化和云迁移中踩坑,核心问题往往不是技术不行,是执行上下文没理清楚——谁能在什么条件下触发什么操作,审计日志留不留,回滚机制有没有。

Copilot时代,这些问题被AI的"智能"外壳掩盖了,但本质没变。

对企业IT的实际影响

如果你负责Microsoft 365治理或Azure架构,Rahsi的框架指向几个具体动作。

第一,重新梳理敏感度标签和权限的颗粒度。Copilot的执行边界直接继承这些设置,标签打得太粗,AI的能力边界就模糊;标签体系太复杂,用户体验又碎片化。

第二,把Purview和Entra ID的配置纳入AI部署的前置条件,而不是安全团队的独立工作。Rahsi强调,执行上下文由这些组件共同塑造,割裂管理会导致Copilot的行为不可预测。

第三,建立"信任边界"的文档和审计机制。知道Copilot在某个场景下为什么拒绝执行,比知道它能做什么更重要——前者涉及合规举证,后者只是功能清单。

Rahsi目前在开放咨询合作,专长就是帮企业理清这套东西。他的背景很典型:PowerShell脚本、IT自动化、云优化,全是执行层面的硬技能。这种履历让他对"从意图到行动"的转化过程特别敏感。

为什么这事现在才有人讲清楚

微软自己的产品叙事一直很分裂。对外宣传Copilot时,强调的是"生产力革命""自然语言交互";对内给企业架构师的文档,又全是权限矩阵、数据驻留、合规认证。

Rahsi的框架价值在于把两边连起来了。他不说Copilot好不好用,他问的是:在你的企业里,Copilot被允许好用在哪里?

这个问题没有标准答案,但必须有答案。每个企业的信任边界形状不同,取决于行业监管、数据分类、内部风险策略。Rahsi的RAHSI Framework不提供模板,提供的是提问的框架——八个要素的检查清单。

这也解释了为什么有些企业部署Copilot后感觉"也就那样":他们可能只买了许可证,没配置执行层。Copilot退化成高级搜索,不是因为AI不行,是因为信任边界设得太保守,或者根本没设,导致系统默认拒绝大多数执行请求。

反过来,边界设得太松又会有合规风险。Rahsi的咨询工作很大一部分就是帮企业找到这个平衡点。

最后

企业软件的历史,基本就是"先让人看见信息,再让人操作信息,最后让系统自动操作信息"的演进。Copilot的争议在于它跳得太快,从"看见"直接跳到"自动操作",中间的操作权限和审计链条还没被普遍理解。

Rahsi的框架没什么花哨概念,就是把中间这层"执行上下文"拆开给你看。看完你会发现,Copilot的表现差异不是AI的脾气,是你企业治理结构的镜像。

所以下次有人抱怨"我的Copilot不如别人的好用",先别急着换提示词。查查他的Entra ID权限,可能比调 temperature 参数管用得多。