打开网易新闻 查看精彩图片

97%的企业已经掏钱,18%真正跑通。这组数字来自Qlik的最新调研,像一盆冷水浇在agentic AI(自主代理式人工智能)的狂热上。一边是十年200倍增长的资本想象,一边是近半数项目注定烂尾的残酷预期——这场技术押注的温差,正在撕裂2024年的企业IT预算表。

agentic AI被设计成能自主规划任务、解读信息并在设定边界内采取行动的系统。理论上,它把AI从"员工手里的高级搜索框"变成"能自己干活的数字临时工"。麦肯锡算了一笔账:2024年这个市场还只有50-70亿美元,到2034年要冲到1990亿美元以上。但钱进去了,东西出不来。Gartner的预测更直白:2027年底前,超过40%的agentic AI项目会被取消。

Qlik的Field CTO EMEA(欧洲、中东及非洲地区首席技术官)Brendan Grady在调研中发现,企业 enthusiasm(热情)和 execution(执行力)之间存在断层。大家都能看到"让AI自动处理供应链异常"或"触发财务预警后自主启动风控流程"的画面,但把画面变成可运行的系统,中间隔着的不是算法,是数据。

早期的生成式AI工具本质是辅助角色。员工用它查资料、写摘要、起草邮件,输出错了,人看一眼就能拦住。agentic系统的区别在于它会直接动手——识别信号、推荐下一步、跨系统执行任务。一旦AI和业务流程硬连接,容错空间就急剧压缩。生成式AI的推荐可以"先给老板看看",自动化工作流却要求"每一步都得对"。

数据成熟度不够,是项目卡壳的头号原因。

Grady把agentic AI比作自动驾驶:车再智能,路标混乱、红绿灯失灵、导航地图过期,照样开不出去。企业的数据环境往往正是如此——ERP(企业资源规划系统)里的客户信息和CRM(客户关系管理系统)对不上,财务数据按月归档但运营数据实时跳动,同一个"活跃用户数"在三个部门有三个定义。agentic AI需要在这些裂缝上跑自动化,结果不是"智能决策",是"智能翻车"。

Qlik的调研显示,只有不到五分之一的企业完成了agentic AI的全面部署。剩下的八成里,有些还在试点,有些已经暂停,更多是在"等数据治理到位"——而这个"等"字,在IT项目里通常意味着无限期拖延。

从"能回答"到"能干活",AI的容错率断崖式下跌

从"能回答"到"能干活",AI的容错率断崖式下跌

生成式AI的容错逻辑是"人机回环"(human-in-the-loop)。模型给建议,人做最终决定,错误成本可控。ChatGPT编错一个数据,用户哈哈一笑再搜一次;Copilot写的代码有bug,工程师review时顺手改掉。

agentic AI的设计目标是压缩甚至消除这个回环。系统要自主判断"库存水位异常→联系备选供应商→调整下周生产计划→通知财务更新现金流预测",全程无人值守。这时候,任何一个环节的信息失真都会被自动放大。

Grady举过一个例子:某零售企业的agentic系统被配置为"监测竞品价格波动并自动调价"。测试阶段一切正常,上线后第一周,系统因为抓取了错误的促销页面数据,把主力SKU(库存量单位)价格压到成本线以下,两小时亏掉季度利润。问题不在算法,在数据源——那个促销页面是旧活动缓存,技术团队没把它列入黑名单。

这种错误在生成式AI场景里叫"幻觉",在agentic场景里叫"事故"。

企业数据环境的复杂性被低估了。Qlik的研究指出,大型组织平均运行着超过350个不同的数据系统,其中只有23%实现了实时同步。agentic AI要跨这些系统做决策,相当于让一个人同时听十几个方言版本的情报,还要秒级做出判断。

更隐蔽的问题是数据时效性。财务部门习惯看月度报表,供应链需要小时级更新,客服系统则是秒级响应。agentic AI如果同时调用这三类数据做决策,就像在同时用去年的地图、昨天的路况和当前的GPS定位来导航——理论上都能用,组合起来就是灾难。

技术债的复利:旧系统的"暗礁"正在浮出水面

技术债的复利:旧系统的"暗礁"正在浮出水面

很多企业把agentic AI当成"叠加层"来部署——在现有系统之上搭一个智能调度中枢,指望它能打通孤岛。Grady认为这个思路本身就有问题:"你不能在混乱的数据架构上贴一层AI,然后期待混乱自动消失。"

过去二十年的企业IT建设留下了大量技术债。ERP、CRM、SCM(供应链管理)、HRM(人力资源管理)各自为政,中间靠ETL(抽取-转换-加载)脚本和Excel表格勉强缝合。这些系统当初设计时没想过要实时互通,更没想过要给AI当"传感器"。

agentic AI的部署像一次全身CT,把平时看不见的数据断层全部显影。某制造业客户在试点中发现,同一台设备的"运行状态"在MES(制造执行系统)里标记为"正常",在IoT(物联网)平台显示"预警",在维修工单系统里已经是"待检修"。三个数据点更新时间相差72小时,agentic AI如果按任意一个单一来源做决策,都会引发连锁误判。

解决这类问题没有捷径,只能回到数据治理的老功课:统一主数据、建立实时管道、定义清晰的数据血缘。

但这些工作的投入产出比很难向董事会解释。"花两年整理数据,然后才能开始用AI"——这个时间表在2024年的竞争压力下显得奢侈。于是很多企业选择"边跑边修",结果是agentic系统在试点环境里表现优异,一接入真实数据就崩溃。

Qlik的数据印证了这一点:已完成全面部署的18%企业,平均数据成熟度评分比行业均值高出34%。这不是巧合,是门槛。

组织能力的隐形天花板:谁对AI的决策负责?

组织能力的隐形天花板:谁对AI的决策负责?

技术问题之外,agentic AI还撞上了一堵软墙:权责模糊。

传统软件系统的决策逻辑是透明的。如果库存管理系统建议补货,采购经理可以打开界面,看到安全库存公式、历史消耗曲线、供应商交期参数,然后签字或驳回。责任链条清晰:系统提供计算,人做判断,人承担后果。

agentic AI的黑箱特性打破了这条链条。系统可能基于数百个变量做出"立即切换供应商"的建议,但无法向采购经理解释每个变量的权重。当决策出错时,是算法的问题、数据的问题、还是配置参数的问题?

Grady在访谈中提到一个典型案例:某金融机构的agentic风控系统误判了一笔大额交易的风险等级,导致客户流失。事后复盘发现,模型在训练时过度加权了某类历史违约案例,而这类案例恰好来自一个已经整改过的业务线。责任归属扯皮了三个月,最终项目暂停。

这种"决策不可解释"带来的治理风险,正在让越来越多的合规部门对agentic AI亮起黄灯。

欧盟AI法案把"高风险AI系统"的透明度要求写进了法律,金融行业尤其敏感。agentic AI如果涉及自动信贷审批、保险定价或投资决策,必须能够向监管机构和被决策者说明"为什么"。而当前的主流大模型架构,本质上是在概率分布中采样,很难提供符合监管要求的确定性解释。

企业正在摸索折中方案:保留"人机回环"作为兜底,设定agentic系统的行动边界,或者把高风险决策永远留在人类手中。但这些妥协都在削弱agentic AI的核心卖点——自主性。

从试点到规模:那18%做对了什么?

从试点到规模:那18%做对了什么?

Qlik的调研没有公开那18% fully deployed(全面部署)企业的完整画像,但从行业访谈和案例研究中可以拼凑出一些共性。

首先是数据基础设施的前置投入。这些企业在启动agentic AI项目之前,已经完成了数据湖/数据仓库的统一建设,建立了主数据管理(MDM)体系,并实现了关键业务系统的实时集成。他们不是"用AI解决数据问题",而是"等数据就绪了再上AI"。

其次是场景选择的克制。成功的部署往往从边界清晰、容错空间相对充足的场景切入——比如内部IT运维的自动化、非核心物料的采购建议、或营销内容的个性化分发。这些场景的共同点在于:决策错误的成本可控,且容易建立快速反馈闭环。

第三是组织流程的重塑。agentic AI不是"插拔式"升级,它要求重新定义人机协作的界面。某物流企业的做法是:agentic系统负责生成"候选行动清单",人类操作员在30秒内确认或修改,系统学习这个反馈并优化下次推荐。这种"半自动"模式牺牲了部分效率,但换来了可控性和可解释性。

最关键的可能是预期管理。那18%的企业没有把agentic AI定位为"降本增效的银弹",而是"需要持续迭代的实验"。

他们接受了前两年ROI(投资回报率)可能为负的现实,把预算的相当比例留给数据治理、模型调优和人员培训。这种耐心和2024年普遍存在的"AI焦虑"形成对比——太多企业上马agentic项目是因为"竞争对手在做",而非"我们准备好了"。

Grady的观察是,agentic AI的成熟曲线会比生成式AI更长。ChatGPT式的工具可以靠模型能力的跃迁快速迭代,但agentic系统的效果瓶颈在数据、在集成、在组织流程——这些都没有摩尔定律加持。

麦肯锡的1990亿美元预测和Gartner的40%失败率,本质上是在说同一件事:这个市场会很大,但通往它的路很窄。钱会流向那些提前修好数据"路基"的企业,而急于发车的玩家,大概率会在半路抛锚。

Qlik的调研里有一个细节没引起太多注意:在那82%尚未全面部署的企业中,有31%表示"计划在未来12个月内重启暂停的项目"。问题是,12个月后,他们的数据成熟度评分会有显著提升吗?还是只是同一批人,带着同样的技术债,再试一次?