每天免费100万Token,这个羊毛不薅等于亏了一个亿
说实话,最近AI圈子里的羊毛越来越少,但最近这个Cerebras放出来的大招——每天100万Token的免费额度,确实让我忍不住惊呼:这也太良心了吧?
更关键的是,这不仅仅是免费的问题,速度还飙到了惊人的2000+ token/s。用官方的话说,这是基于他们自家的Wafer Scale Engine芯片跑出来的极致性能。实际体验下来,真的有种"丝般顺滑"的感觉。
今天就手把手教你怎么把这每天100万Token的羊毛薅到手,而且要薅得明明白白。
获取API
地址在这里:cloud.cerebras.ai 复制到浏览器中先说个门槛,在开始配置之前,有个必须提前说清楚的事儿:这个服务需要全程开启"魔法",如果你的网络环境不支持,那后面的配置就可以跳过了。这点真的很重要,省得你折腾半天发现连不上。
1.登录
使用谷歌或者github账号登录
2.填写基本资料
姓名随便填,
3.选择套餐
选择free,每天1M的TOKEN数
4.获取API
点击 COPY API KEY 按钮,复制api,到
使用记录
场景一:打造你的专属AI助手
如果你平时喜欢用Cherry Studio这类第三方AI客户端,那这个配置绝对不能错过。
第一步:添加提供商
在Cherry Studio的设置里,选择"添加",
依次点击,设置、模型服务、搜索cerebras,填写api密钥
如图
第二步:测试API信息
实测 GPT OSS 120b 可用
其他的
多个密钥
GLM4.6报错了。
第三步:新建聊天窗口对话
使用 Cherry Studio 新建一个对话窗口
第四步:添加模型
在模型管理里,你可以选择Qwen3的各个版本。我推荐先从235B这个大碗的开始用,体验感拉满。
配置完成后,在主界面上方就能切换模型了。这时候你就有了一个免费、高速、强大的AI助手,写文案、查资料、做分析,随便你怎么造。
场景二:翻译自由的终极方案
作为一个技术人,每天看的文档、教程、论文90%都是英文的。沉浸式翻译这个插件很多人都用,但免费额度真的很有限。
现在好了,把大模型接到沉浸式翻译上,每天100万Token的额度,足够你翻译成吨的资料了。
配置方法:
1. 进入沉浸式翻译的设置页面
2. 翻译服务 -> 添加自定义翻译服务
3. 填写以下信息:
• API接口地址:
https://api.cerebras.ai/v1/chat/completions• API Key:和上面一样
• 模型名称:勾选"自定义模型名称",填入
llama3.1-8b
点一下测试服务,看到绿色的OK就说明配置成功了。我试了翻几篇技术文档,质量和速度都没得挑,比之前用的免费翻译服务强太多了。
场景三:代码开发神器
这个真的是官方都推荐的用法,而且体验完之后我只能说:真香。
准备工作:
先安装cline.bot这个VSCode插件(官网:https://cline.bot/),这是一个基于AI的代码助手,功能相当强大。
配置步骤:
1. 在VSCode里打开Cline的配置面板
2. API Provider选择"Cerebras"
3. 填入你的API Key
4. 模型选择gpt-oss-120b
先随便问几个问题
配置完成后,你就可以享受极速Coding的快感了。代码补全、bug修复、功能实现,Cline都能帮你搞定。而且因为Cerebras的推理速度极快,整个交互过程几乎没有延迟,那种体验真的让人上瘾。
我的真实使用感受
配置完这几个场景后,我用了整整一周时间。说几个最直观的感受:
1. 速度真的太快了 :以前用其他API的时候,经常要等个几秒钟才能看到回复,现在几乎是你刚发出去请求,结果就回来了。2000+ token/s不是吹的。
2. 稳定性不错 :一周用下来,除了偶尔需要刷新一下token,基本没遇到过服务中断的情况。这对于免费服务来说很难得。
3. 功能足够用 :不管是日常聊天、翻译文档还是写代码,Qwen3的表现都很稳定。虽然不是最强的模型,但作为日常生产力工具完全够格。
如果你还在纠结要不要花时间去配置,我的建议是:赶紧去薅!
原因很简单:
• 免费额度真的够大(每天100万Token)
• 配置一次,三个场景都能用
• 就算以后不续费,先把这波羊毛薅到手也不亏
唯一需要提醒的是,免费服务嘛,别指望能一直持续。所以趁着现在还在放水,赶紧把能用的场景都配置上,能多用一天是一天。
好了,配置指南就说到这。如果你在配置过程中遇到什么问题,或者想了解更多使用技巧,欢迎在评论区交流。毕竟,薅羊毛这种事,大家一起薅才有意思不是?
热门跟贴