19900亿美元。这是麦肯锡给Agentic AI(智能体人工智能)画的十年大饼——从2024年的50-70亿暴涨到2034年的近2万亿。但Gartner的预测像一盆冰水:到2027年底,超过40%的智能体项目会被砍掉。一边是机构疯狂押注,一边是落地项目批量死亡,这中间的裂缝到底在哪?
97%的人掏了钱,只有18%跑通了
Qlik的数据更扎心。他们对全球企业的调研显示,97%的组织已经给智能体AI批了预算,但真正全量部署的只有18%。剩下82%的人,钱花了,系统还在 pilot(试点)里打转。
这种落差不是技术问题,是预期管理崩盘。早期生成式AI当助手用,写个邮件、总结文档,错了大不了重发。智能体不一样,它要直接动手——发现财务异常就触发供应链调整,识别风险就启动运营流程。错了不是尴尬,是真金白银的损失。
Qlik的欧洲、中东及非洲地区现场技术负责人(Field CTO EMEA)说得直白:「一旦AI开始直接操作业务流程,容错空间就趋近于零。」生成式AI的建议你可以先看再决定,智能体的动作是自动执行的,你对数据质量和逻辑链的信心必须足够硬。
很多企业这时候才发现,自己的数据地基根本撑不起这座楼。
数据成熟度:被忽视的硬门槛
智能体项目搁浅的头号原因,是数据成熟度不足。这不是指数据量大不大,而是数据能不能被信任、能不能跨系统打通、能不能实时更新。
想象一个场景:你的智能体被授权处理客户退款。它需要同时读取CRM里的客户等级、ERP里的订单状态、财务系统的付款记录。如果这三个系统的客户ID格式不统一,或者退款规则在2023年改过但文档没更新,智能体就会在一个错误的逻辑上自动执行——而且执行得又快又准。
这种错误比人类操作更难察觉。人类看到异常会停下来问,智能体只会按既定规则跑完。Qlik的调研发现,数据不一致、元数据缺失、实时性不足,这三项问题在搁浅项目中反复出现。
更隐蔽的问题是「数据权限」的复杂度。智能体需要跨系统操作,但每个系统的权限模型不同。给多了怕泄密,给少了跑不动,IT部门往往在安全审计和业务流程之间两头受气。
从「能用」到「敢用」: guardrails(护栏)的困境
智能体AI的核心设计是「在定义的护栏内自主行动」。但护栏怎么设,本身就是个产品难题。
设得太宽,智能体可能做出超出预期的决策——比如为了优化库存,把某款产品的安全库存降到零,结果碰上供应商延期就断货。设得太窄,它又退化成传统的规则引擎,失去了「智能」的意义。
Qlik的技术负责人提到一个关键观察:很多企业把智能体的失败归咎于模型能力,但实际问题出在「上下文理解」的断层。智能体需要理解业务场景的隐含约束,而这些约束往往没有写在任何文档里,只存在于老员工的脑子里。
举个例子:某零售企业的智能体被授权处理促销定价。系统逻辑是「竞品降价就跟着降」,但没考虑到「某些品牌是战略合作的,不能主动挑价格战」。这种规则如果不在护栏里显式定义,智能体就会踩雷。
把隐性知识转化为机器可读的规则,需要业务部门和IT部门深度协作——而大多数企业的组织架构,恰恰让这种协作成本极高。
麦肯锡的2万亿,算的是哪笔账?
回到那个19900亿的数字。麦肯锡的预测模型里,智能体AI的价值主要来自三类场景:运营自动化(占40%)、决策支持(35%)、客户交互(25%)。
运营自动化是最被高估的。企业以为能把客服、采购、财务流程一股脑丢给智能体,但实际操作中发现,「端到端自动化」的边界极其模糊。一个采购流程里,80%的环节可以规则化,剩下20%涉及供应商关系、质量争议、紧急调货,这些需要人类判断的节点怎么和智能体衔接,没有标准答案。
决策支持类场景进展更快,因为人类还在回路里。智能体提供分析、推荐行动,最终拍板的是人。这种「人机协作」模式对数据质量的要求相对宽松,容错空间也更大。
客户交互是最激进的实验场。一些银行已经在用智能体处理贷款预审,但监管红线让完全自动化几乎不可能。欧盟的AI法案要求「高风险AI系统必须有人类监督」,这直接限制了智能体在金融、医疗、司法等领域的自主权。
麦肯锡的2万亿,假设的是监管框架逐步清晰、技术可靠性持续提升。但Gartner的40%项目取消率,反映的是当下企业面对的真实摩擦。
那些跑通的企业,做对了什么?
18%的全量部署者不是运气更好,而是更早认清了一个事实:智能体AI不是技术升级,是组织能力的重构。
他们普遍做了三件事。第一,先治数据病,再上智能体。Qlik的调研显示,这些企业在启动智能体项目前,平均花了14个月做数据治理——统一主数据、清理历史遗留、建立实时管道。这14个月没有「AI赋能」的光环,但决定了后面的路能不能走通。
第二,从「监督式自动化」起步,而非「完全自主」。他们让智能体在人类的实时监督下运行,逐步扩大授权范围。这种渐进策略牺牲了短期效率,但积累了可审计的决策日志,为后续优化提供了数据基础。
第三,把护栏设计当成产品迭代,而非一次性工程。业务规则在变,竞争环境在变,智能体的约束条件也必须持续更新。跑通的企业建立了跨职能的「智能体运营团队」,成员包括业务专家、数据工程师、合规人员,定期评审智能体的决策样本。
这种模式很重,但避免了「上线即巅峰、三个月翻车」的剧本。
技术供应商的叙事陷阱
智能体AI的热度,很大程度上是技术供应商炒起来的。他们的 demo(演示)通常很惊艳:一个自然语言指令,智能体自动完成跨系统操作。但 demo 和 production(生产环境)的差距,比短视频和原片的差距还大。
供应商的定价模型也在制造幻觉。很多按「任务完成数」计费,鼓励企业扩大智能体的授权范围。但企业真正该问的是:这些「完成的任务」里,有多少需要人工复核?有多少产生了后续问题?有多少其实用传统自动化更便宜可靠?
Qlik的技术负责人提到一个被忽视的成本:智能体的「解释成本」。当智能体做出一个决策,你需要向审计、向客户、向监管解释为什么。如果决策链条涉及多个模型、多个数据源,这种解释可能极其困难。欧盟AI法案要求的「可解释性」,在技术实现上远未成熟。
一些供应商开始提供「决策溯源」功能,记录智能体的每一步推理。但这增加了计算开销,也让系统变得更复杂。企业往往在「黑盒高效」和「白盒可控」之间摇摆,没有完美答案。
2034年的2万亿,谁真能拿到?
麦肯锡和Gartner的预测差距,本质是时间尺度的差异。十年后的市场规模,和三年内的项目存活率,本来就不矛盾。
但企业决策者容易混淆这两个时间尺度。听到2万亿,觉得不上车就晚了;看到40%取消率,又觉得技术不成熟再等等。两种反应都错在把「智能体AI」当成一个统一的技术浪潮,而不是分散在不同场景、不同成熟度水平的具体应用。
更清醒的视角是:智能体AI的价值捕获,将极度不均衡。数据基础设施完善、业务流程标准化程度高、监管环境明确的领域,会快速产生回报。反之,数据混乱、流程依赖隐性知识、监管敏感的领域,投入可能长期沉没。
这也意味着,同一行业里,不同企业的智能体AI ROI(投资回报率)可能天差地别。不是技术本身决定成败,是企业有没有为这项技术准备好组织条件。
一个被低估的变量:人机协作的再设计
智能体AI的真正挑战,可能不在技术,在组织。当一部分决策权从人类转移到机器,岗位边界、考核指标、责任归属都需要重新设计。
Qlik的调研里有一个细节:在搁浅项目中,67%提到了「员工抵触」或「使用率低」。不是系统跑不通,是一线员工不信任、不愿用。这种信任缺失,有时候源于对失业的恐惧,有时候源于对「机器抢功劳」的不满,有时候只是单纯觉得系统给出的建议不符合实际经验。
成功的部署者花了大量精力在「变革管理」上——不是发通知培训,而是让一线员工参与护栏设计、反馈错误案例、看到智能体帮他们省下的时间真的回到了自己手里。这种「参与感」比任何技术优化都更能决定采纳率。
但变革管理很难写进技术采购的ROI计算。企业更容易为「智能体许可证」批预算,却舍不得为「组织转型顾问」花钱。这种资源配置的错位,可能是40%项目取消的深层原因之一。
监管的不确定性与技术路线的博弈
欧盟AI法案把智能体系统纳入「高风险」类别,要求人类监督、可解释性、偏见审计。美国还没有联邦层面的统一立法,但FTC(联邦贸易委员会)已经开始用「不公平或欺骗性做法」条款追查AI系统的消费者损害。
这种监管环境的不确定性,让企业的技术路线选择变得复杂。是押注「完全自主」的长期愿景,还是接受「人类在回路」的过渡方案?前者技术风险高、监管风险更高;后者短期可行,但可能陷入路径依赖,永远到不了真正的自主智能。
一些企业选择「监管套利」——在监管宽松的地区试点激进方案,再把经验复制到严格市场。但这种策略的窗口期正在关闭。欧盟的「布鲁塞尔效应」意味着,为全球最大市场设计的合规方案,往往会成为事实标准。
技术供应商也在调整叙事。2023年还在讲「自主智能体」,2024年已经更多强调「人类增强」「可解释AI」。这种语气的变化,反映的是市场从「讲故事融资」向「拿订单交付」的转向。
数据:被忽视的资产负债表项目
智能体AI的兴起,可能倒逼企业重新评估数据资产的价值。传统上,数据是IT部门的成本中心,存储、清洗、治理都是花钱的事。但当数据质量直接决定智能体的可靠性,它变成了风险管理的前置条件。
Qlik的技术负责人建议企业把「数据成熟度」当作一个正式的评估维度,和财务健康度、运营效率并列。这包括:主数据的一致性评分、实时数据管道的覆盖率、历史数据的可追溯性、元数据的完整度。这些指标不性感,但决定了智能体项目的生死。
一些前沿企业开始尝试「数据保险」——为关键数据资产购买质量保险,如果因数据错误导致智能体决策失误,保险公司承担部分损失。这种产品的出现,说明市场正在把数据风险显性化、定价化。
但保险只能转移风险,不能消除风险。根本的解决方案,还是企业在数据基础设施上的持续投入。这不是一个「AI项目」,是数字化转型的基本功。
从试点到规模:那个被跳过的中间态
很多企业智能体项目的死亡,发生在试点成功之后。试点阶段,选的是最友好的场景、最干净的数据、最配合的业务部门。一旦要扩展到其他场景,复杂性指数级上升。
Qlik的调研发现,试点到规模的平均周期是18个月,但72%的项目在12个月内就因「扩展困难」被搁置。常见的陷阱包括:试点用的数据接口是临时搭建的,无法复用;护栏规则是针对特定场景写的,换个场景就失效;业务部门的配合度在新鲜感消退后急剧下降。
这种「试点陷阱」不是智能体AI独有的,但智能体的跨系统特性让它更致命。一个成功的试点可能依赖三个系统的数据,而企业有三十个系统。扩展不是线性复制,是重新解决大部分问题。
一些企业开始采用「平台化」策略——先建设统一的智能体开发平台,再在上面生长具体应用。这种前期投入更大,但避免了每个试点重复造轮子。平台化也意味着更强的治理能力,让护栏、审计、权限管理成为基础设施而非事后补丁。
那个18%的群体,下一步往哪走?
已经全量部署的企业,面临的挑战从「能不能跑」变成「怎么跑得更好」。他们开始关注智能体的「协同效应」——多个智能体如何分工协作,处理更复杂的业务流程。
比如,一个销售智能体识别到大客户流失风险,触发客户成功智能体介入,同时通知供应链智能体准备替代方案。这种多智能体编排,需要更高层次的协调机制,也带来新的失败模式:智能体A的决策基于智能体B的输出,错误会在链条中放大。
另一个前沿方向是「持续学习」。当前的智能体大多是静态的,部署时的模型和规则决定了它的行为。但业务环境在变,竞争对手的策略在变,智能体需要在线更新而不中断服务。这种「热更新」能力,在技术上尚未成熟,在监管上更是敏感地带。
Qlik的技术负责人认为,未来两年的关键竞争点,不是单个智能体的能力,而是「智能体生态系统」的健康度——包括开发工具的易用性、第三方插件的丰富度、社区最佳实践的积累。这和早期移动互联网的应用商店逻辑类似:平台的价值最终来自生态的繁荣。
回到那个根本问题:值不值得押注?
麦肯锡的2万亿和Gartner的40%取消率,都是真的。它们描述的是同一枚硬币的两面:长期价值巨大,短期摩擦极高。
对于企业决策者来说,关键不是判断「智能体AI是不是未来」,而是评估「我的组织是否为这个未来准备好了」。数据成熟度、业务流程标准化程度、监管环境、变革管理能力,这些变量比技术本身更能预测成败。
那些已经掏了预算但还在 pilot 里打转的82%,需要的不是更多技术供应商的 demo,而是一次诚实的组织诊断:我们的数据真的准备好了吗?我们的护栏设计有没有覆盖关键风险场景?我们的员工是参与者还是旁观者?
智能体AI不会因为它「先进」就自动创造价值。它只会放大你已有的组织能力——好的更好,差的更差。这种「马太效应」,可能是这场技术浪潮中最被低估的变量。
如果你的智能体今天做了一个决策,你敢不敢不看日志就直接签字?
热门跟贴