大模型用得起却算不清账,这是今年许多企业面临的真实困境。5月12日,网易有道给出了一个解法,发布企业级大模型聚合平台ThinkFlow,核心卖点是全链路Token消费可视化。
Token是AI模型处理文本的最小计费单元,每次调用大模型API,企业都在按Token数量付费。对于同时接入DeepSeek、Kimi、通义千问等多家模型的企业,Token消耗更像一团迷雾“谁在烧钱、烧在哪、烧得值不值”,往往谁也说不清。
ThinkFlow试图用一张精确到单次调用的成本看板来回答这些问题。
从产品形态看,ThinkFlow不生产模型,而是做模型之上的“调度中枢”。它通过标准化API接口,将DeepSeek、Kimi、通义千问、MiniMax等20余款主流大模型纳入统一调度,企业一次接入即可在多模型间灵活切换,无需为每个模型分别适配接口和管理密钥。
平台内置智能路由与负载均衡,能在毫秒级完成故障切换,并提供私有化部署与统一密钥管理能力。
这本质上是一个AI时代的中间件。过去两年,国内日均Token调用量从2024年初的1000亿飙升至2026年3月的140万亿。
企业同时使用多款模型的场景越来越普遍,但各厂商API协议互不兼容,切换模型等于重写代码;Token消耗缺乏细粒度监控,AI预算极易失控;API密钥分散管理也成了安全漏洞。这些藏在模型能力之下的隐性成本正在蚕食企业的AI预算。
有意思的是,阿里通义千问和百度文心一言近期的发力方向,与ThinkFlow形成有趣对照。
阿里云通义千问推行输入/输出分别计费、阶梯定价的清晰体系,试图在计价端建立价格优势;百度则在5月9日发布的文心5.1模型上将预训练成本削减了94%,从模型自身效率着手降低成本。
三家走的是三种不同的路径,模型厂商卖服务时强调“我的价格更便宜”,有道做聚合层时强调“不管用谁家的模型,你的开销自己都能看清”。
不过一个核心问题随之浮现,当企业能够精确计算每次调用的成本之后,还愿意为多个模型分别付费吗?从逻辑上推演,Token可视化看到的不只是单一模型的支出,更可以横向对比不同模型完成同一任务的性价比。
这意味着企业可以更快地做出“用谁不用谁”的决策,从而加速模型服务商之间的价格竞争。从商业角度看,这对中间件厂商来说是双刃剑,既可能通过优化调度获得了客户,也可能因透明化加速了价格战。
ThinkFlow脱胎于网易内部的大规模业务实践,已在网易有道、网易游戏、网易云音乐等场景完成验证。它补齐了网易有道从自研“子曰”垂域大模型、C端Agent“LobsterAI”到基础设施的全链条布局。
网易有道CEO周枫在年初判断“2026年将成为AI Agent的关键元年”,而ThinkFlow恰好是为这个判断提供的基础设施支撑,只有企业端的大模型调用足够稳定、透明且低成本,C端AI应用的爆发才有可持续的基础。
在基础模型能力差距逐渐收敛的2026年,如何高效、稳定、低成本地调度和使用模型,正成为AI落地的新竞争壁垒。
Token可视化可能是打破这个壁垒的第一步,但一家企业如果每笔AI开销都算得清、管得住,是否就意味着它一定能用好AI?
或许答案并不在这张看板里,而在看板之外的那些决策环节上。
热门跟贴