凌晨三点,一个开发者想在GitHub Copilot和DeepSeek之间做个比价。他打开七个标签页,对比上下文窗口、推理成本和工具调用支持——二十分钟后,他放弃了,随便选了一个。

这个场景每天都在发生。AI模型爆发式增长,但信息散落在几十个官网和文档里。今天有个叫AgentOne的团队把这件事解决了:他们把自己用的内部数据库开源了,35家供应商、全自动更新、用TOML文件存数据。

打开网易新闻 查看精彩图片

最狠的是,他们还搭了个浏览器端,搜"支持推理且输入百万token不到1美元"能直接出结果。

为什么需要一个新目录

AgentOne的开发者写得很直白:现有方案让他很沮丧。

他点名了三个问题。Models.dev体验不错,但覆盖不全;其他数据源要么手动维护滞后,要么格式混乱不好用。他自己做AgentOne时需要完整的模型元数据——成本、上下文长度、功能特性、模态类型——让用户能一键接入任何供应商的全部模型。

「我需要一份真正全面的列表,覆盖每个供应商的每一款模型。」

这个需求很典型。2024年到2025年,AI模型发布频率从季度变成周更。OpenAI的o系列、Anthropic的Claude 3.5 Sonnet、Google的Gemini 2.5、xAI的Grok 3、DeepSeek的R1——每个都有自己的定价阶梯、上下文窗口和功能限制。开发者选型时像在解一道动态规划题,参数每小时都在变。

更麻烦的是数据格式。有的供应商用REST API返回JSON,有的藏在文档表格里,有的只在控制台显示。想做个统一的模型选择器,得写35个不同的爬虫和解析器。

AgentOne的解法是把这套基础设施抽出来,单独开源。

技术架构:TOML树+GitHub Actions

这个目录的核心设计很克制。每个模型有一个独立文件夹,路径是data/providers/<供应商>/<模型ID>/index.toml。整个目录就是一棵TOML文件树。

选TOML而不是JSON或YAML,有几个实际考量。TOML对人类可读,对机器也好解析,diff的时候能看到具体哪行变了。GitHub的渲染支持也不错,直接点进去能看懂。

数据更新靠GitHub Actions,每24小时跑一轮。每个供应商有一个小型适配器,知道怎么调对方的API或读文档,然后把响应归一化到统一schema。schema覆盖的字段包括:

成本结构(输入/输出单价)、上下文窗口长度、支持的功能(工具调用、推理模式、JSON模式等)、模态(文本、图像、音频、视频)。

如果供应商的数据有误或缺失,用户可以丢一个metadata.toml在旁边。下次刷新时,系统会合并覆盖层而不是直接覆盖。这个设计留了人工修正的口子,又保证自动化流程不被打断。

为了兼容现有工具,目录还自动生成两个聚合文件:data/all.jsondata/all.min.json。前者完整,后者压缩过省带宽。地址直接暴露成raw GitHub URL,任何语言都能一行代码拉取。

目前收录的供应商超过35家。名单包括OpenAI、Anthropic、Google、xAI、Mistral、DeepSeek、Cohere、Perplexity、OpenRouter、Vercel、GitHub Copilot、GitHub Models、Hugging Face、Groq、Cerebras、Fireworks、Together、DeepInfra、Baseten、Novita、Alibaba、Inception、Venice、Chutes、Friendli等。开发者说名单还在涨,缺谁可以提issue或PR,加一个新供应商通常只需要一个适配器文件。

浏览器端:把TOML变成可操作的表格

机器读TOML舒服,人类需要可视化。AgentOne在models.agent-one.dev搭了个前端。

界面是一张快表,支持排序和搜索。schema里的每个字段对应一列,可以跨供应商、模型ID、功能特性、模态类型同时检索。排序支持任意列,点击直接跳转到供应商官网。

开发者举了个具体用例:找「支持推理且工具调用、输入百万token成本低于1美元」的模型。这种查询在传统方式下要打开多个官网比价,在这里筛两次条件就出结果。

这个设计思路很明确:模型选择已经从「选最好的」变成「选最适合的」。不同场景对延迟、成本、能力的权重完全不同。实时客服要毫秒级响应,不在乎推理深度;代码生成要长上下文,能接受几秒延迟;批量处理要极致性价比,可以牺牲最新功能。

没有统一答案,所以需要灵活的工具。

开源背后的商业逻辑

AgentOne把这个目录开源,不是纯做慈善。

这是他们的数据层,本来就要维护。开源出去,社区能帮补供应商、修数据错误、提新功能,维护成本分摊了。更重要的是,这成了AgentOne的技术名片——用得起这个基础设施的团队,选型能力和工程水平都不会差。

对社区来说,这是急需的基础设施。AI模型信息碎片化的问题被抱怨了很久,但没人愿意持续投入维护一个中立目录。各大供应商各自为政,第三方工具要么收费、要么覆盖有限、要么更新滞后。一个全自动、开源、接受PR的目录,填补了生态位。

技术选型上也有意思。TOML+GitHub Actions+静态JSON,没有数据库、没有服务器、没有认证。部署成本趋近于零,可靠性却很高——GitHub的基础设施比大多数初创公司的自建服务稳得多。这种「无服务器架构」在开发者工具里越来越流行,核心逻辑是:如果数据可以静态化,就别跑动态服务。

覆盖35家供应商是个信号。AI基础设施正在分层:底层是算力和模型,中间是路由和编排,上层是应用。AgentOne卡位在「模型元数据」这一层,做所有中间层的依赖。这个位置一旦站稳,上下游都得对接。

数据收束

35家供应商、24小时自动更新、TOML文件树、两个JSON端点、一个可筛选的浏览器——这些数字勾勒出一个基础设施项目的轮廓。它不训练模型,不做推理优化,只是解决一个被忽视但每天都在浪费开发者时间的问题:模型信息在哪里、多少钱、能干什么。

AgentOne的开源目录把这个问题的答案从「散落在35个官网」变成了「一个GitHub仓库+一个网页」。对于每天要在模型之间做选择的开发者,这省下的不只是时间,还有决策质量。