一个AI代理在数据仓库里跑查询的数量,可能是人类分析工作流的十倍甚至百倍。这对任何封闭数据生态系统来说,都是个麻烦——这些查询往往要走同一条昂贵的计算路径。
Fivetran首席产品官Anjan Kundavaram在The New Stack播客新一期中打了个比方:"这有点像一直用兰博基尼去割草坪。"
这番论断来自我们在Google Cloud Next期间的对话。Fivetran借这场活动力推其"开放数据基础设施"框架,并发布了一份开放数据基础设施数据访问基准,目的是让厂商更难悄悄对客户的AI工作负载征税。这个论点时机正好——The New Stack今年早些时候报道过,大多数企业数据系统从来不是为代理集群设计的。
Kundavaram描述的经济学转变,始于一个关于代理的反直觉事实:它们不是人类,不需要秒级响应。
"如果代理认为能省下10倍成本,它愿意花更多时间。"他说。
在拥有多个计算引擎的架构中,代理可以把昂贵的分析问题路由到一个引擎,把便宜的问题丢给更轻量、更低成本的选项。而在封闭栈里,每个问题都得走同一扇昂贵的门。
这是AI成本挤压的一个来源。另一个来源,是AI需要的数据和上下文从一开始就没有整合好。
"这会是三重打击。"
如果客户信息分散在不同系统,上下文没有归集一处,Kundavaram说后果会层层叠加:AI答案质量差、代理运行大量查询导致成本飙升、以及用薄弱上下文喂养这些查询造成的浪费。
"所以会是三重打击。"他说。
大多数数据组织的本能反应是收紧控制。Kundavaram认为这恰恰错了:"一家大公司的数据负责人跟我说,我们的分析预算,光是查询就涨了很多。"他回忆道,"实际上我们公司自己的内部分析负责人也说,等等,我得加控制。我们当时的反应是,'不不,别加控制。我们去创新。'"
他的核心处方是:代理式分析的生产力解锁,只有在客户拒绝锁死本能、转而投资开放基础设施和语义规范时,才能真正实现。
Fivetran推动这个论点有明显的商业利益,公司也在忙着将其产品化。The New Stack此前报道过Fivetran在Google Cloud上的数据湖互操作性工作,该公司还在3月将SQLMesh捐赠给Linux基金会。
更难的问题是:企业买家是否会用和Kundavaram一样的视角解读成本曲线?
热门跟贴