大家好,我是程序员鱼皮。
AI 编程时代,人类对 Tokens 的需求量越来越大,供不应求。
于是有些聪明人嗅到了商机,开始搞 API 中转站。
可能很多搞技术的同学都看不上这玩意,觉得不就是转发个请求么?
但你看看都是谁在做,猎豹移动 CEO 傅盛搞了个 EasyRouter;币圈知名人物孙宇晨搞了个 B.AI,据说已经突破百万用户;甚至连特朗普家族都下场做了个 WorldClaw,四档套餐最贵的卖 9999 美元,买了还有机会抽海湖庄园的私人晚宴门票。。。
之前懂王就卖 Crypto Token 割了一波,现在 AI 火了又来卖 API Token。果然没有人比他更懂 Token!
看着他们一个个赚得盆满钵满,一般人很难不心动啊。
咳咳,其实 23 年我就做过类似的产品了,不知道有多少朋友还记得「鱼聪明 AI」,当时我还开发了调用中转站的 SDK 来着。后来网站因为成本原因倒闭了,往事不堪回首啊。。。
有了失败经验之后,我不打算自己闷头做了,干脆写篇教程,带大家一起从零搞一个!
这篇文章,我不仅会讲清楚 API 中转站是什么、它的原理是什么,还会手把手带你用 AI 编程做一个出来。分别用 DeepSeek V4 + Claude Code 和 GPT-5.5 + Cursor 各开发一版,让你一次把中转站搞明白。
全文共 8000 多字,点个收藏,咱们开始~
什么是 API 中转站?
打个比方,你想买个国外的包,但自己不方便直接去海外专柜,于是找了个代购。你把钱给代购,代购帮你去各大品牌店买好寄给你,顺便赚个差价和服务费。
API 中转站干的就是代购的活。
你平时用 AI 聊天、写代码、做应用,不直接对接 AI 模型厂商(比如 OpenAI、DeepSeek、智谱等),而是通过中转站这个「中间商」来调用。中转站把各家 AI 模型的 API 聚合到一个平台上,你注册一个中转站的账号就能调用所有模型,不用到处注册,能方便不少。
为什么中转站那么火呢?得看它解决了什么问题。
对于国内开发者来说,想用 Claude、GPT 这类国外模型,支付和网络都是门槛。中转站帮你解决了这些麻烦,支持国内常用的付款方式,国内网络直连,不用折腾。就算你只用国产模型,每家注册一个账号、各管理一套 API Key 也挺麻烦的,中转站可以帮你统一管理。
目前最知名的中转站应该是 OpenRouter,聚合了几百个大模型,据说年流水已经过亿美元了。
一个中转站就能赚这么多钱,难怪连懂王都来分一杯羹了。
顺便提一下,程序员朋友们可能听说过一个概念叫「AI 网关」,其实它跟 API 中转站是有点区别的。中转站更偏向「帮你代买 API」的二道贩子角色,AI 网关更偏向企业内部统一管理多个模型的基础设施。不过核心技术是相通的。
中转站的原理
我知道很多同学在用或者考虑用中转站,但市面上的中转站鱼龙混杂,很容易踩雷。
想少踩坑,最好的办法就是了解中转站的原理,知道它背后到底在干什么。
中转站的核心其实就两个字:代理。
你的请求不直接发给 AI 模型,而是先发到中转站的服务器,中转站帮你转发到对应的模型厂商,拿到结果后再返回给你。
而且大多数中转站都有一个共同的设计,就是对外 “伪装” 成 OpenAI 的接口格式。几乎所有 AI 工具(Claude Code、Cursor、各种 SDK)都支持 OpenAI 格式,所以用户只需要改 2 个参数就能接入中转站,一行业务代码都不用动:
client = OpenAI(
api_key="sk-relay-xxx", # 改成中转站的 Key
base_url="http://你的中转站/v1" # 改成中转站的地址
)
中转站的服务器收到请求后,会根据你指定的模型名称,把请求路由到对应的 AI 厂商。如果配置了多个 API Key,还会自动轮换,避免单个 Key 被限流。同时记录每次调用的 Token 消耗,用于计费。
但有个问题,你的所有请求都要经过中转站的服务器,这一层对用户来说完全是个「黑盒」。中转站那边具体做了什么,你根本不知道!
而很多不靠谱的中转站,正是在这个黑盒里动了手脚。
最近 CISPA 亥姆霍兹信息安全中心发了一篇论文,揭露了一个触目惊心的事实:近一半的第三方 API 中转站在进行系统性欺诈!
常见的黑心操作有这么几种:
1)模型掉包
你付 GPT-5 的钱,实际跑的是某个廉价开源小模型。论文测了 28 个中转站,竟然高达 45.83% 的 API 端点存在模型身份不匹配,医疗场景下性能差距高达 47%!
2)虚报 Token 消耗
你实际用了 100 Token,账单上给你写 150。用户付了 14.84 美元,实际只获得 5.7 到 7.7 美元价值的服务。
3)缓存套利
AI 模型厂商对重复出现的内容(比如相同的 System Prompt)会给缓存优惠价,但中转站按原价收你的钱,把这部分差价默默吃掉了。
4)数据收割
更可恶的是,有些中转站收集并贩卖用户的代码和敏感数据!
调研发现,17 家头部中转站中有 15 家是个人运营,无企业注册、无 ICP 备案。用户充值金额积累到一定程度后,说不定就直接删库跑路了。。。
所以建议大家有条件的话,还是用官方 API 吧。实在要用中转站,也要选有企业资质和备案的大平台。
如果你想更深入地了解中转站,GitHub 上有不少开源项目可以参考。看完这些项目,再自己动手做一个,中转站对你来说就再也没有秘密了。
开源中转站项目
GitHub 上中转站相关的开源项目非常多,可以说是无奇不有。我挑几个有代表性的给大家看看。
1)one-api
元祖级项目,GitHub 上几万 Star。它用 Go 语言开发,把所有主流大模型的 API 统一成 OpenAI 格式,支持几十种模型,而且只需要一个文件就能跑起来,还支持 Docker 部署。
不夸张地说,市面上 80% 以上的商业中转站底层都是 one-api 或者它的衍生版本,只是套了个壳。
2)new-api
在 one-api 基础上二次开发,新增了 Prometheus 监控、OpenTelemetry 可观测性等企业级特性,也是很多商业中转站的底层框架。
顺便提一嘴,傅盛的 EasyRouter 就被 new-api 原作者扒出来是套壳的,前端代码中有 98 处指向 new-api 的关键词匹配,而且移除了版权信息,涉嫌违反 AGPL v3 开源协议。
3)sub2api
这个项目厉害了,能把 Claude、OpenAI 的网页版订阅账号逆向转化成标准的 API 接口,相当于多个人拼车共享一个 Plus 会员,一个账号的额度分给好几个人用。
4)metapi
号称「中转站的中转站」,把你在多个 one-api / new-api / sub2api 上注册的账号聚合成一个统一网关,基于成本、余额、使用率三维加权来分配流量。
5)all-api-hub
这是一个浏览器扩展,专门用来管理你在各个中转站上的账号。装上之后,可以在一个面板里看到所有中转站的余额和用量,还支持自动签到、价格横向对比,对于同时用好几个中转站的人来说挺方便的。
除了这些中转站项目,企业级场景下还有像 LiteLLM、Higress AI、Kong AI Gateway 这些更正经的开源 AI 网关。不过这类项目有一定的技术门槛,非程序员朋友不用深入了解。
接下来,我们自己动手做一个简易版的 API 中转站。
需求分析
我们要做的这个中转站可以说是「麻雀虽小,五脏俱全」。核心功能包括:
1)对外暴露兼容 OpenAI 格式的接口,支持流式和非流式响应,用户改个 base_url 和 api_key 就能接入。
2)接入 DeepSeek V4、智谱 GLM-5、通义千问 Qwen-Plus 三个国产大模型,支持用户指定模型,也支持 auto 模式自动路由。
3)中转站自有 API Key 管理体系,管理员可以创建、禁用、删除 Key,给每个 Key 设置余额上限。
4)记录每次调用的 Token 消耗,不同模型设置不同计费倍率,后台可查看调用日志和用量统计图表。
5)定期检测各模型渠道的可用性,请求失败自动重试到其他渠道,管理面板显示健康状态。
6)管理面板包含仪表盘、渠道管理、Key 管理、调用日志,支持管理员密码登录。
如果你完全没有技术基础,可以让 AI 帮你完成方案设计。
但这里为了节省时间和 tokens,我直接告诉 AI 怎么做。
为了尽快跑通核心功能,我们的中转站不需要用户注册登录,也不需要对接支付系统。管理员在后台创建 API Key,通过其他方式收完钱后,把 Key 发给用户、手动调整余额就行了。
你还别觉得这种方式 low,市面上大多数小中转站就是这么运作的!搭个 one-api / new-api 之类的开源项目,后台创建 Key,通过发卡工具或者群聊卖 Key 就能开张了。。。
如果想学完整的带用户注册、在线支付、监控告警的企业级 AI 网关,可以看看我们团队之前出过的 ,基于 Spring Boot 3 + Spring AI + Vue 3 从零搭建,感兴趣的同学可以到 编程导航 codefather.cn 学习。
由于某些原因,你懂的,我没办法真带大家搞一个对接国外大模型的中转站,也强烈不建议大家去搞!这里我们就拿 DeepSeek、GLM 和 Qwen 三个国产模型做演示,项目在本地运行和测试。
开发技术上,我选择主流的 Next.js + TypeScript,前端 + 后端一把梭。数据库选择 SQLite,数据直接存在本地文件里,不用搭 MySQL 和 Redis 之类的,降低门槛。
如果你看过我之前的 AI 编程教程,Claude Code 和 AI 扩展应该已经装好了,可以直接跳到下一节。
完全 0 基础的朋友也不用慌,跟着下面操作就行。
安装 Claude Code
先简单介绍一下 Claude Code。它是 Anthropic 推出的 AI 编程工具,直接在终端里运行,你跟它聊天描述需求,它就能自主分析项目、写代码、跑命令、修 Bug,全程自主执行。
除了基础的代码生成,还能使用工具和 Skills 技能包、连接 MCP 外部服务、用 Plugins 插件扩展能力,甚至搞多智能体协作,扩展性很强。
安装 Claude Code 很简单。
首先确保你的电脑有 Node.js 环境和 npm 软件依赖安装工具,没有的话,直接到 Node 官网 下载傻瓜式安装包就好:
无论使用什么操作系统,都可以通过 npm,一行命令来安装 Claude Code:
npm install -g @anthropic-ai/claude-code
安装完成后,输入 claude 命令进入对话界面,首次需要登录才能正常使用:
但估计很多同学没有 Anthropic 的国外订阅账号,所以我们要切换为国产模型。
切换模型
Claude Code 本身是支持切换模型的,你可以通过「修改环境变量」或「编辑配置文件」来对接其他大模型的 API。
一般你使用哪家的大模型 API,直接看对应的官方文档,就能找到接入方法。
比如 DeepSeek 的 API 文档 里就有现成的接入方法:
不过我更推荐用一个开源工具 CC Switch,能够可视化地管理 Claude Code、Codex、Gemini CLI 等 AI 编程工具的配置,一键切换不同的模型供应商。内置了 50 多个供应商预设,不用自己手动改配置文件。
开源指路:https://github.com/farion1231/cc-switch
按照官方中文文档,根据操作系统选择对应的安装方式:
Mac 用户可以通过命令行安装:
brew tap farion1231/ccswitch
brew install --cask cc-switch
安装完成后,运行软件进入主界面,添加模型供应商:
选择 DeepSeek:
填写 API Key,需要从 DeepSeek 开放平台 获取。
我这里把主模型设置为 DeepSeek-V4-Pro,相比 DeepSeek-V4-Flash 模型,Agent 能力和复杂推理更强。
如果要开启超长上下文,还可以修改为 DeepSeek-V4-Pro[1m],不过这个任务我估计 200K 上下文足够了。
然后点右下角保存:
可以在上图中看到 Claude Code 的 JSON 配置文件,其实 CC Switch 就是帮你可视化地修改各 AI 工具的配置文件,省去手动编辑 JSON 的麻烦。
最后,启用 DeepSeek 模型:
然后重新进入 Claude Code,随便输入一句话,AI 能给出回复,说明切换模型成功:
Claude Code 默认就有读写文件、跑终端命令、搜索代码这些基础能力,但要做好一个完整项目,光靠这些还不够。
我们需要下面 3 个扩展:
Frontend Design:前端美化技能,让生成的页面更有设计感
Firecrawl:联网搜索和网页抓取,让 AI 能获取最新的技术信息
Context7:查询最新的技术文档和 API 用法,减少 AI 瞎编的情况
下面来依次安装。
1、安装 Frontend Design
Frontend Design 是 Anthropic 官方的前端美化技能,可以让 AI 生成的页面更有设计感。
在 Claude Code 中,先通过 /plugin 命令添加官方技能市场,相当于装了个技能商店:
/plugin marketplace add anthropics/skills
输入 /plugins,在 Discover 菜单栏中,选中 example-skills 并按回车,安装官方的示例技能合集:
输入 /reload-plugins 重载一下插件:
输入 /skills 查看已安装的技能,可以看到 frontend-design 已经就位了:
之后在对话框中输入 /frontend-design 就能主动触发这个技能,让 AI 美化前端页面。同时还自动装上了 webapp-testing 自动化测试技能,后面也用得上。
2、安装 Firecrawl
Firecrawl 是联网搜索和网页抓取工具,让 AI 开发前先搜索最新技术信息。
安装方式很简单,打开终端,输入一行命令:
npx -y firecrawl-cli@latest init --all --browser
执行后,会自动打开浏览器,要在弹出的页面中点击授权:
安装完成后,会自动注册 12 个 Firecrawl 相关技能:
在 Claude Code 的技能管理中,就能看到新添加的 Firecrawl 相关技能了:
Context7 是一个技术文档查询工具,让 AI 能获取到各种框架和库的最新官方文档,避免用过时的 API 写代码。
先在终端输入一行命令来安装:
npx ctx7@latest setup
它会问是安装 MCP 服务还是 CLI + Skills,这里我选择 CLI + Skills。你会发现,现在越来越多工具已经从 MCP 转向 CLI + Skills 的方式了:
同样在弹出的网页中授权,不用自己获取和输入 API Key,太方便了!
然后选择要给哪个 AI 编程工具安装,我选择为 Claude Code 安装:
安装成功后,可以在技能管理中看到 find-docs 技能:
当然,你也可以选择安装 MCP Server 的方式:
安装后,在 Claude Code 中输入 /mcp 命令,就能看到安装好的 MCP 了,比自己手动配置方便太多了!
至此,环境准备完成!下次开发项目时,就不用再重复准备了~
DeepSeek + Claude Code 开发
新建一个 yupi-ai-relay 项目文件夹,打开终端并输入 cd 命令进入目录,然后输入 claude 打开 Claude Code:
接下来输入提示词。这段提示词也是我利用 AI 编程工具,根据我的需求描述生成的,给大家参考:
## 角色
你是一个全栈工程师,擅长 Node.js + Next.js + TypeScript 开发。
## 任务
开发一个叫 yupi-ai-relay 的网站,实现一个简易但完整的 AI 大模型 API 中转站,兼容 OpenAI API 格式,支持多模型路由。
## 核心功能
1. 对外暴露 `/v1/chat/completions` 接口,完全兼容 OpenAI Chat Completions API 格式,支持流式(SSE)和非流式响应,用户只需修改 base_url 和 api_key 即可接入
2. 接入 3 个国产大模型:DeepSeek V4、智谱 GLM-5、通义千问 qwen-plus。支持用户指定 model 参数选择模型,也支持 auto 模式随机负载均衡
3. 中转站自有 API Key 体系(sk-relay-xxx 格式),管理后台可创建/禁用/删除 Key,每个 Key 可设置余额上限
4. 记录每次请求的 Token 消耗(prompt_tokens + completion_tokens),不同模型设置不同计费倍率,管理后台可查看调用日志和用量统计图表
5. 定期检测各模型渠道可用性,请求失败自动重试到其他可用渠道,管理面板显示各渠道健康状态
6. 管理面板包含仪表盘概览、渠道管理、Key 管理、调用日志,支持管理员密码登录
## 技术栈
- 框架:Next.js + TypeScript
- 数据库:SQLite(通过 better-sqlite3,零配置)
- 样式:使用 Shadcn UI 组件库
- 图表:Recharts## 要求
1. 页面参考 OpenRouter 官网风格,浅色主题,简洁大方接地气,使用 frontend-design 技能美化页面
2. 开发前,先通过 Firecrawl 联网搜索确认 DeepSeek、智谱、通义千问最新的 API 格式,通过 Context7 查询 Next.js 最新文档
3. 必须生成完整可运行的代码,每步完成后通过 webapp-testing 自主测试验证
4. 环境变量通过 .env.local 配置各模型的 API Key
给 AI 发送提示词前,我按 Shift + Tab 进入了自动接受编辑模式,AI 创建、修改、删除文件和执行命令都不用我逐一确认了,更省事儿。但有一定风险,大家按需使用:
把提示词发送给 AI,接下来就是漫长的等待了。
过程中 AI 可能需要确认工具调用,比如它想通过 Firecrawl 搜索最新的大模型 API 信息,可以选择「Yes, and don't ask again」,以后就不用反复确认了:
注意,DeepSeek 的发挥不是很稳定,有时候不会触发技能,而是使用内置的搜索工具。你可以在提示词中加强引导,或者用斜杠命令主动触发技能。
开发完成后,AI 自动使用 webapp-testing 技能进行自动化测试:
等了将近半小时,AI 终于开发完成了。从 AI 的总结可以看到,OpenAI 兼容接口、流式/非流式、多模型路由、API Key 管理、Token 计费、健康检查、管理后台、Recharts 图表这些功能全给整上了,一把梭~
然后需要我们人工操作,分别从 DeepSeek 开放平台、智谱 AI 开放平台、阿里云百炼平台获取到大模型的 API Key,根据 AI 的指引填到环境变量文件中:
然后让 AI 帮我运行。它不仅启动了项目,还很贴心地又进行了一轮测试:
测试过程中 AI 还自主发现并修复了一个问题,很八错!
接下来人工测试一下。
打开网站主页。你别说,干净又卫生啊!重点一目了然。可惜还是没逃出蓝紫色渐变的魔掌。。。
跟 OpenRouter 官网的风格还挺像的吧?大概吧。。。
登录管理员账号,进入管理后台,能看到 AI 大模型的调用情况、总费用消耗等数据:
进入渠道管理,可以看到已经对接的各种大模型,你还可以给每个模型设置单独的计费倍率,比如调整 DeepSeek V4 Pro 的价格为 Flash 的 2 倍:
还可以一键检查各模型的健康状态:
诶,等等?我不是在提示词中让 AI 对接 GLM-5 么?怎么给我搞了个 GLM-4.5???
进入 API Key 管理,你可以给每个付费用户生成一个 API Key,设置对应的余额上限,然后把 Key 发给用户:
进入调用日志,可以查看每一次具体的模型调用情况,包括调用的模型、Token 消耗、耗时、费用、请求类型等:
但目前这个界面连最基本的筛选功能都没有,我以后要做个日活百万的中转站,怎么可能人工从这里面查日志呢?
等等,难道 AI 觉得我不敢真的上线嘛?
接下来,以用户的视角来使用中转站。进入网站主页查看文档,有各种调用方式的介绍:
先直接打开终端,通过命令行的 HTTP 请求工具 curl 来调用。注意网站文档上的端口号写错了,应该跟后端服务器保持一致,我这里是 3333 端口。
模型选择 auto 自动路由,可以看到成功调用了 Qwen 模型:
既然是兼容 OpenAI 格式的,那我们不妨尝试在 Claude Code 中使用。
进入 CC Switch 工具,添加一个新供应商,选择自定义配置:
填写信息,请求地址改成中转站服务器的地址,API 格式选择 OpenAI 格式,模型名称我选 auto,让中转站帮我路由:
然后一定要注意!因为 Claude Code 原生使用 Anthropic 格式,而中转站是 OpenAI 兼容格式,必须先进入设置,开启 CC Switch 的路由模式。
开启路由模式后,路由会自动将 Anthropic 格式请求转换为 OpenAI 格式,再转发到中转站。
配置完成后,在 Claude Code 中发消息,AI 成功回复了!同时中转站后端的日志打印了请求信息,说明请求确实经过了我们的中转站:
不过让 AI 做复杂任务的时候,会频繁出现调用失败的情况。估计是一些请求格式没有兼容到位,毕竟 Anthropic 转 OpenAI 的过程中有很多细节差异,比如 Tool Use 的参数格式等。这也是做中转站的一个重点,需要持续测试各种场景,及时更新适配各家大模型的协议和规范。
总结一下,咱们用 DeepSeek V4 一把梭出了一个五脏俱全的中转站,核心功能基本可用,能正常路由、计费、管理 Key。
但离真正能上线的产品还有一段距离,比如没对接到我指定的 GLM-5、Key 复制功能缺失、日志不能筛选。当然了,这些问题都可以继续跟 AI 对话来修复和打磨。
我在 Claude Code 中,用 /context 命令看了一下上下文,只占用了 63%,还有不少富余,开发到上线程度肯定是没问题的。
你肯定会好奇花了多少钱?
来来来,到 DeepSeek 开放平台上看看费用消耗,开发这个项目实际只花了 2 块多,你觉得是便宜还是贵呢?
既然提示词都准备好了,那咱不妨换一个能力更强的 GPT-5.5 模型试试看,这次在另一个主流的 AI 编程工具 Cursor 里开发。
相比 Claude Code 的纯命令行,Cursor 最大的优势是可视化操作,更适合新手小白上手,很多配置都是傻瓜式点点就行。
需要先在 Cursor 中配好 Firecrawl 和 Context7 的 MCP 扩展。Cursor 的使用和扩展配置教程在我的 AI 编程零基础教程 中可以获取,这里不多说了:
选择 GPT-5.5 模型,发送同样的提示词:
AI 自动切换到了计划模式,先调用 MCP 获取各家模型的最新 API 信息,然后生成了项目实施计划:
简单看一遍方案,没啥问题,直接开始构建:
等代码生成完成后,AI 还会自主打开浏览器进行测试,全程不需要我们人工操作,这期间我又做了 1 组提肛。
整体耗时 14 分钟,比 DeepSeek 快了一倍多,消耗了 87.5K tokens:
同样根据 AI 的指引,分别获取各平台的 API Key,填入环境变量文件:
最后,让 AI 测试并运行,各种测试全部通过:
接下来让我们人工测试一下。
打开网站,整体看着还不错,除了有部分文字颜色不太合适。
跟 DeepSeek 开发出来的一样,没有完全复刻 OpenRouter 主页的风格。应该是我提示词写的不够精确,下次应该说 100% 复刻。
进入到管理面板中,成功对接了 GLM-5 等大模型,其他功能和前面 DeepSeek 开发的中转站类似:
区别在于,GPT-5.5 选择把所有管理功能全部塞到了一个页面,而不是像 DeepSeek 那样分成多个 Tab。布局太紧凑了,我个人觉得 DeepSeek 的分 Tab 体验更好。
创建一个 API Key,准备试试调用效果:
进入调用文档,好家伙这是啥玩意啊?感觉新用户来了根本看不懂怎么调用,也没有 curl 调用示例。。。
没关系,咱们先用跟之前一样的方式,通过 curl 测试,成功调用了 GLM-5 模型:
通过 Claude Code 测试也是一样的结果,简单对话能顺利完成,复杂任务还是会报错:
这就是没有兼容好各种请求格式的问题。如果你要正儿八经地做中转站,提示词里一定要强调多模型协议的兼容性,让 AI 多编写单元测试,充分验证各种边界情况。
总结一下,Cursor + GPT-5.5 的开发速度确实快了很多,但最终效果并没有像我想象中那样甩开 DeepSeek 一大截,甚至在前端的表现上,我觉得 DeepSeek 更胜一筹。
而且国外模型的价格普遍比国内贵。所以还是要根据自己的需求选择模型,如果你还不太会 AI 编程,建议先用比较便宜的国产模型练手,不然可能一顿操作花了几十块,结果什么都没搞出来。
最后哔哔
做完这个中转站,相信你已经完全理解了它的原理。
我还很贴心地给大家准备了「黑心版」中转站的提示词,仅供整活娱乐和教学目的,实际千万不要这么干!
## ⚠️ 黑心中转站 DLC(仅供娱乐,不是鱼皮教的)
在管理面板中增加一个「高级设置(请勿开启)」折叠面板,标题旁加 图标,默认关闭,包含以下功能:1. Token 暗税滑块(1.0x - 3.0x):实际消耗 100 Token,账单上乘以倍率显示 150,用户看到的 usage 字段是虚报后的数字
2. 偷梁换柱开关:用户请求模型 A 实际转发到便宜的模型 B,返回的 model 字段仍显示用户请求的原始模型名
3. Prompt 缓存吸血:对话中重复的 prompt 缓存命中后,仍按完整 Token 数向用户收费
看到这里,再回过头看那些中转站的坑,什么模型掉包、虚报 Token、缓存套利,你应该能明白它们是怎么实现的了。
所以我再次建议,有条件尽量用官方 API 吧!别为了省一点钱,把自己的代码和数据送了出去。
OK 就分享到这里,本文会收录到我免费开源的 ,上千张图、几十万字,带你从 0 开始快速学会 AI 编程,做出自己的产品、跑通变现全流程,一次拿捏。
开源指路:https://github.com/liyupi/ai-guide
我是鱼皮,持续分享 AI 编程干货。觉得有用的话记得点赞收藏和关注,也欢迎在评论区聊聊:你正在用哪家的大模型?有没有被 API 中转站坑过?