打开网易新闻 查看精彩图片

如果你同时用过三家以上的大语言模型(LLM,Large Language Model),大概率被计价方式折磨过。OpenAI按token收费,谷歌按字符算,Anthropic又对缓存输入打七折——但折扣藏在文档第17页。等你把这些换算成统一表格,某家厂商悄悄改了价,数字全废。

ATOM这个项目干的事,就是把47家厂商、2,583个SKU(库存单位,Stock Keeping Unit)全部标准化,再通过MCP(模型上下文协议,Model Context Protocol)服务器让你的AI代理直接查询。不是贴张静态表格到提示词里碰运气,而是给代理一个实时连接,它自己查、自己算、自己决策。

计价混乱到了什么程度

计价混乱到了什么程度

大模型定价的碎片化,本质是各家厂商在争夺"定价解释权"。OpenAI的GPT-4o输入$2.50/百万token,输出$10.00;谷歌Gemini 1.5 Pro按字符计费,1,000字符约等于250-750个token,换算时得自己乘系数;Anthropic的Claude 3.5 Sonnet对缓存输入打九折,但"缓存命中"的定义藏在API文档的角落。

功能相似模型的价差通常超过30倍。这个差距在真实使用量下会指数级放大。假设你每天消耗10亿token,选错供应商可能意味着每月多付数万美元——而大多数人直到账单来了才发现。

更隐蔽的是上下文窗口定价。长文本处理(100K+ token)在部分厂商那里是溢价功能,另一些则打包在基础价里。工具调用(tool calling)的支持情况、批处理折扣、速率限制……这些变量交叉组合,手动对比几乎不可能完成。

ATOM的解决思路很直接:不做另一个比价网站,而是做一个能被AI代理直接调用的数据源。它每周一重新计算所有SKU的中位数价格,把47种计价单位统一换算成"每百万token美元",然后通过MCP协议暴露出来。

MCP协议:给AI代理装上传感器

MCP协议:给AI代理装上传感器

模型上下文协议(MCP)是Anthropic去年推出的开放标准,现在Claude、Cursor、Windsurf等主流工具原生支持。它的作用类似于AI世界的USB-C接口——让代理能标准化地连接外部数据源

传统工作流里,你要把价格表复制粘贴到提示词里,注明"以上数据截至某月某日"。MCP模式下,代理直接向ATOM服务器发起查询,拿到的是实时数字。代理可以基于这些数字做推理,比如"在给定预算下选择性价比最高的模型",或者"当某家涨价超过阈值时自动切换供应商"。

ATOM的服务器已发布到npm、Smithery和官方MCP注册表。配置方式取决于你的客户端:

Claude Desktop用户,在claude_desktop_config.json里添加:

{
"mcpServers": {
"atom-pricing": {
"command": "npx",
"args": ["-y", "atom-mcp-server"]
}
}
}

Cursor或Windsurf用户,直接在MCP设置里填入端点:https://atom-mcp-server-production.up.railway.app/mcp

打开网易新闻 查看精彩图片

其他MCP客户端支持HTTP SSE和stdio两种传输方式,本地运行用npx,远程调用指向上面的Railway端点即可。

免费层与PRO层的能力边界

免费层与PRO层的能力边界

ATOM采用分层设计,免费层提供4个工具,专注宏观市场情报,无需登录。PRO层($49/月)解锁另外4个工具,下探到模型级和厂商级的细节。

免费层的get_kpis返回每周市场概览:输入价格中位数、输出价格中位数、上下文窗口分布、工具调用支持率。这些是聚合后的基准线,适合快速感知市场水位。

PRO层的search_models支持细粒度筛选。比如找"上下文窗口≥100K且支持工具调用的最便宜模型":

context_window_min: 100000
tool_calling: true
sort_by: input_price_asc

返回结果包含所有符合条件的模型,价格已统一换算。compare_prices则针对特定模型家族横向对比,比如输入"Llama 3.3 70B",它会列出所有提供该模型的厂商及标准化定价,省去你自己做单位转换的麻烦。

这个工具的真正价值不在比价本身,而在让"模型路由"从人工决策变成可编程逻辑。如果你在做任何需要大量LLM调用的产品——客服机器人、代码助手、内容生成管道——成本和能力的权衡是每天都在发生的决策,只是大多数人没意识到自己在做选择。

ATOM把它显性化了。代理可以基于实时价格数据,在请求级别决定"这个查询用GPT-4o还是Gemini Flash",或者"长文档摘要任务路由到哪家更划算"。这种细粒度的动态优化,手动操作不可行,但代码可以。

谁需要这个,谁不需要

谁需要这个,谁不需要

个人开发者用免费层足够。如果你每月LLM支出在几百美元以内,手动比价的时间成本可能低于$49月费。但当你的代理开始自主做几十个决策时,信息时效性就成了瓶颈——上周的价格表和本周的账单之间,可能隔着一次厂商调价。

中小团队和产品经理是PRO层的目标用户。模型路由策略直接影响毛利率,而大多数团队现在靠"拍脑袋"定策略:用GPT-4做所有事,直到账单让人清醒。ATOM提供的是数据基础设施,让成本优化有迹可循。

云厂商和大型ISV可能自建类似系统。但ATOM的开源架构(MCP服务器)意味着你可以把它集成进现有工作流,而不必迁移到某个封闭平台。这也是MCP协议的初衷:避免被单一供应商锁定。

一个有趣的细节:ATOM的定价本身也在被它追踪的数据影响。$49/月的PRO费,放在大模型支出里是个小数,但恰好卡在"让决策者认真考虑"的心理价位。创始人显然清楚自己的用户画像——不是 hobbyist,而是需要向财务解释ROI的产品负责人。

当你的代理开始询问"为什么选这家供应商"时,你准备好用数据回答,还是继续凭感觉?