打开网易新闻 查看精彩图片

企业监控AI成本的方式,有点像只看油表却不管过路费——Revenium新推出的工具注册中心,试图把整趟旅程的账单都摊开。

这家公司宣布,其平台已能端到端追踪AI智能体的真实开销。与传统Token计数器不同,它把API调用、第三方服务、甚至人工审核的费用,全部追溯到触发它们的那个AI决策。按Revenium的说法,这是首个全栈式的"智能体驱动支出"视图。

Token成本被高估了,这是他们的核心判断。多数企业紧盯大语言模型的用量,但Revenium认为,Token费用只是冰山一角。智能体在实际运行中频繁调用外部服务——征信查询、身份验证、欺诈检测——这些按次计费的项目,单价往往远超模型本身。

贷款审批是个典型场景。一次工作流的Token成本约0.30美元,但信用报告查询35至75美元,身份验证2至5美元,欺诈检查1至3美元,银行账户验证最高1美元。总成本50到85美元,Token占比不到1%。更麻烦的是,这些费用分散在不同供应商的账单里,几乎无法对应到某次AI行为。

工具注册中心的解法是把所有成本源纳入同一套记录:外部API、SaaS平台、内部计算、人工环节。每次调用都映射回智能体、工作流、交易链路,甚至终端客户。AI花的每一美元,都能与业务结果挂钩。

CEO John Rowell提到,成本透明度缺失是高管评估AI投资时的反复痛点。支出散落在多个系统,业务结果又在别处统计,企业难以判断AI是否真的创造了财务价值。工具注册中心试图回答:这个工作流到底赚不赚钱。

发布时间踩中了行业的微妙节点。Gartner预测,到2026年底40%的企业应用将嵌入专用AI智能体,而2025年这一比例不足5%。但Forrester同时预测,由于投资回报不明,企业会把四分之一的AI预算推迟到2027年。犹豫的根源之一,正是无法衡量AI工作流的投入产出比。

平台还纳入了"人在回路"的成本。许多工作流中,AI仍需人工审核完成验证、合规或异常处理。工具注册中心将这些干预视为同一链路的可计量事件,让企业能追踪自动化对人力投入的影响——比如某工作流把人工审核率从35%压到12%,省下的钱得以量化,前提是人力与机器成本在同一系统里统一核算。

这与主流工具的思路明显不同。Langfuse、LangSmith、Helicone等平台聚焦LLM用量、智能体工作流和Token消耗,能拆解提示词、响应、延迟和单请求成本,但"成本"的定义基本止于模型交互与基础设施。Arize AI、Datadog LLM Observability等更高级的方案,结合性能监控与链路追踪,提供模型行为和系统健康的统一视图,却仍把成本视为系统使用的副产品,而非将完整业务开销归因到外部服务。

Revenium的转向是从"AI可观测性"到"AI财务归因"——不只问一次模型调用花多少,而是衡量整个智能体决策的真实总成本。目前大多数工具无法原生捕获这层信息。部分平台能追踪工作流中的工具调用,但通常不会把第三方计费标准化,并归因到单次决策或客户级结果。

一位早期用户反馈,他们第一次看清了某个"低成本"智能体其实每月在外部征信API上烧掉六位数——而之前的报表里,这笔账被拆成了十几张发票,没人注意到它们来自同一个AI工作流。