Qlik Connect 2026现场,CMO Chris Powell抛出一个让全场安静的判断:「不是AI能不能用,是数据能不能被AI用。」这句话戳破了过去18个月的企业AI泡沫—— demos(演示)惊艳,落地稀碎。

一、信任危机:数据成了AI的隐形天花板

打开网易新闻 查看精彩图片

Powell的调研数据很直白。Qlik与Enterprise Technology Research联合研究显示,数据质量、可用性、治理——这三项传统IT老问题,如今成了规模化代理型AI(agentic AI,指能自主决策执行任务的AI系统)的最大拦路虎。

企业不缺野心。Powell观察到一个普遍现象:「你看demo能清楚看到潜力,但让demo在真实世界跑起来,完全是另一回事。」

这种落差正在制造一批「AI僵尸项目」——POC(概念验证)通过,预算批了,团队建了,最后卡在数据层动弹不得。不是模型不够聪明,是喂给模型的数据没法让人放心。

Qlik的应对策略是「信任评分」机制。系统会评估特定数据片段是否可靠到足以输入大语言模型,有点像给数据发通行证。Powell解释这个评分背后的复杂维度:数据来源哪?谁碰过?什么时候改的?存过哪?旁边还躺着什么数据?

「血统追溯(lineage,指数据从源头到使用的完整路径)是关键组件,」他说,「企业正在构建的是一整套数据出身档案。」

这个需求背后有个残酷现实:企业数据环境是几十年堆出来的技术债。ERP、CRM、数据库、Excel表格、第三方API——数据孤岛之间连血缘关系都理不清,更别提让AI跨系统做决策。

二、人机边界:UPS的「放手」与「收紧」艺术

代理型AI的核心诱惑是自主。但Powell强调,高 stakes(高风险)领域的企业必须回答一个设计问题:什么时候让AI自己干,什么时候必须喊人?

联合包裹(UPS)的案例被反复提及。这家物流巨头的代理系统内置了领域专家规则,明确定义自主行动的边界条件。不是技术做不到全自动,是商业风险不允许。

这种「人机协作架构」正在成为生产级部署的标配。Powell的观察是:「那些最自信迈向规模化生产的企业,都是把人类专业知识嵌入代理系统设计的。」

这里有个反直觉的点。行业叙事常把AI进步等同于「减少人类干预」,但企业实践恰恰相反——越是关键场景,越需要人类专家来划定AI的行动半径。不是不信任技术,是对业务后果负责。

UPS的路径说明:代理型AI的成熟度,不体现在自动化比例上,体现在「知道什么时候不该自动化」的判断力上。

三、成本架构:被忽视的第三根支柱

Powell的第三个论点直指财务现实。很多企业把成本控制当成后期优化项,这在AI时代是致命错误。

大语言模型的调用成本不是线性增长的。一次复杂查询可能触发多轮推理、多次数据检索、多个模型串联——账单会在你意识到之前失控。更麻烦的是,AI系统的成本结构与传统软件完全不同:固定投入少,边际波动大。

「早期不把成本控制 baked into(嵌入)系统架构的企业,最终会发现自己建了一个财务黑洞,」Powell警告。

这解释了为什么有些企业的AI项目「技术上可行,商业上死亡」。POC阶段用的是小额测试预算,生产环境面对的是真实流量——如果架构没预留成本熔断机制,一个流量峰值就能吃掉全年AI预算。

Qlik的建议是:把成本当作「战略变量」来管理,而非事后审计对象。这意味着在系统设计阶段就要考虑模型选型策略(什么时候用GPT-4,什么时候用轻量模型)、缓存机制、查询优化、甚至「降级预案」——高峰期自动切换低成本模式。

四、从实验到生产:三个非谈判条件

Powell把企业AI转型总结为三根支柱:

第一,信任数据。不是「大概干净」,是可验证、可追溯、可评分的数据资产。

第二,理解专有上下文。通用模型不懂你的行业术语、客户分类、内部流程。没有领域知识注入,AI就是高级搜索框。

第三,保持技术灵活性。模型迭代速度以月计,今天的最优解可能是明年的负债。架构必须预留替换空间。

这三条的共同点是:都发生在模型层之外。企业AI的竞争,正在从「用什么模型」转向「用什么数据、什么流程、什么治理框架来支撑模型」。

Powell的访谈中有个细节值得玩味。他反复区分「demo潜力」和「真实世界挑战」——这不是技术悲观主义,是对企业客户痛点的精准把握。过去两年,C-suite(高管层)被各种AI演示轰炸过太多次,现在他们要的是可审计、可预测、可规模化的生产系统。

这种心态转变正在重塑供应商格局。纯模型厂商的光环在褪色,能解决数据整合、治理、成本控制的「全栈选手」重新获得话语权。Qlik作为老牌数据分析公司,显然想抓住这个窗口期。

五、你的AI项目该做哪道体检

Powell的框架可以转化为五个自检问题,适合任何正在评估AI投入产出的团队:

数据血统能追溯到源系统吗?还是只有「大概从CRM来的」这种模糊答案?

有机制评估数据是否适合输入模型吗?还是靠工程师手工判断?

领域专家参与设计了AI的决策边界吗?还是技术团队自己定的规则?

成本模型覆盖峰值场景了吗?还是只算了平均用量?

架构能在6个月内替换底层模型吗?还是被某家供应商锁死了?

这五个问题没有标准答案,但能暴露风险盲区。大多数卡壳的项目,至少踩中其中两个。

企业AI部署的瓶颈转移,本质上是一次「去魅」过程。2023-2024年的狂热期,模型能力本身就是卖点;2025-2026年的冷静期,企业发现真正的差异化来自数据基础设施和运营纪律。这不是技术倒退,是技术落地的正常周期——从「能不能做」到「怎么做才可持续」。

Powell在Qlik Connect现场的判断,可以当作这个阶段的注脚:AI的 demos 已经够好了,现在比拼的是谁能让 demos 在 messy reality(混乱现实)里活下来。数据质量、人机协作设计、成本架构——这三项不性感的基础设施工作,正在决定企业AI投资的最终回报。