打开网易新闻 查看精彩图片

205位CISO(首席信息安全官)被问到一个问题:你的AI有多少权限?答案让Teleport的研究人员沉默了——76%的受访企业给AI开了"全通证",而这类企业的安全事件发生率,是精细化管控企业的4.5倍。

数据切片:AI落地速度 vs 权限管理滞后

数据切片:AI落地速度 vs 权限管理滞后

这份2025年12月完成的调研覆盖了500-10000人规模的企业。92%的受访者确认AI已进入生产环境,85%的安全负责人承认"担心出事",59%已经或怀疑自己中招。

但真正的裂缝在于:身份管理体系根本没跟上AI的扩张节奏。

Teleport把AI权限分为两档——"粗放型"(broad permissions)和"精细化"(granular access)。前者像给新员工一把万能钥匙,能开所有会议室;后者是按项目发卡,用完即回收。结果粗放型企业的AI相关安全事件率高达76%,而精细化管控组将这一数字压到了17%以下。

4.5倍的差距,不是技术代差,是管理意识的代差。

事件还原:权限泛滥如何变成攻击跳板

事件还原:权限泛滥如何变成攻击跳板

打开网易新闻 查看精彩图片

报告没披露具体企业名称,但勾勒了典型攻击路径。AI系统通常需要访问代码库、数据库、云平台API——这些正是传统身份管理的灰色地带。

一个被反复提及的场景:某企业的AI助手被配置为可以读取所有Jira工单,包括含客户PII(个人身份信息)的敏感项目。攻击者通过提示词注入(prompt injection)诱导AI泄露信息,而安全团队直到三周后审计日志时才察觉。

「AI不是普通用户,它不会'忘记'密码,不会下班,也不会因为可疑邮件起疑心。」Teleport产品负责人Ev Kontsevoy在报告中写道,「但很多企业还在用给人用的权限模型套在AI头上。」

更隐蔽的风险在于"权限漂移"。AI系统被频繁更新、重新训练,每次迭代都可能继承或叠加旧权限。调研显示,43%的企业从未审计过AI系统的访问日志,61%无法准确回答"我的AI现在能访问哪些数据"。

行业切片:谁在裸泳,谁在补课

行业切片:谁在裸泳,谁在补课

金融和医疗行业的受访者表现出更高的焦虑指数——这两个领域的数据合规压力最大,但AI部署热情同样高涨。一位匿名CISO描述了两难:「业务团队每周都在催上线新AI功能,安全评审却被压缩到48小时。我们像是在高速公路上换轮胎。」

相比之下,制造业和零售业的权限管控反而更严格。可能因为它们的历史包袱更重:遗留系统多、API碎片化,倒逼出更谨慎的访问策略。

打开网易新闻 查看精彩图片

报告还戳破了一个迷思:「零信任」架构的普及率与AI安全事件率没有显著负相关。换句话说,喊了多年零信任的企业,在AI权限管理上同样可能翻车。Kontsevoy的解释很直接:「零信任解决的是'谁可以进来',但AI需要的是'进来后能碰什么'——这是两个不同层的问题。」

时间线复盘:从"能用就行"到"敢不敢用"

时间线复盘:从"能用就行"到"敢不敢用"

2023-2024年,企业AI竞赛的主题是"上线"。ChatGPT掀起恐慌式部署,IT部门的KPI是"本周能不能跑通Demo"。权限?先给root(超级管理员权限)再说,反正"只是内部测试"。

2025年,测试环境里的AI被推进生产环境,但权限配置没跟着升级。Teleport的调研恰逢这个转折点——企业终于开始数自己埋了多少雷。

一个值得玩味的细节:报告发布于2026年3月,但数据采集在2025年12月。这意味着受访者的"59%曾遭遇AI安全事件"还不包括2026年初DeepSeek引发的全球AI安全反思潮。实际数字可能更高。

Teleport给出的建议并不新鲜,但执行率堪忧:为每个AI代理(AI agent)建立独立身份、实施最小权限原则、强制访问日志审计、定期权限回收。难点在于,这些措施需要跨部门协作——安全团队定规则,平台团队改配置,业务团队忍延迟。在"AI原生"企业里,这套流程可能直接拖垮产品迭代速度。

报告末尾抛出一个未被回答的问题:当AI开始自主调用其他AI(multi-agent协作),权限管理的复杂度将指数级上升。今天的"粗放vs精细"二分法,届时还够用吗?

你的企业给AI开了多少权限?上次审计是什么时候?