雷峰网讯 用户苦Token成本久矣。

“烧了几千块钱的Token,Agent还是没把活干完”,这或许是第一批尝鲜“养虾”的弄潮儿们最不想面对、却又最常遭遇的尴尬时刻。

当Agent越发全面地接管工作流,人们在交付效果的权衡中,开始更多地看到效率问题。有时候它们能自主完成需求分析、多轮修改,直接交付可用的文案或代码,有时候却在复杂任务的拆解中,迷失工具调用的方向。端到端的任务场景,往往会让成本失控的问题更加凸显。一觉醒来,Token账单几百美元,正事却没干多少。

不少开发者会将之归咎于Agent的架构设计、工具链的完善程度,或是Prompt工程的深浅。但更根本的矛盾是,大模型本身的执行力,即高效完成任务的能力,可能远未达到工业级可用标准。

这不仅指推理质量本身,一个常被忽视的维度是词元效率(Token Efficiency)。

当传统模型在多轮对话中不断膨胀上下文窗口、消耗惊人Token时,蚂蚁百灵最新发布的Ling-2.6-flash,却在用一个简单的主张撬动开发者的注意:更少Token,更快响应、更强执行。

一周前,代号为Elephant Alpha的匿名模型登陆OpenRouter,这正是百灵模型Ling-2.6-flash的匿名测试版本。上线首日,Elephant Alpha在没有高调预热的情况下,就迅速冲上OpenRouter Trending榜单第2位,日榜第13名,Token使用量日增高达377%,prompt tokens突破6.11B。

开发者社区对这一路线的反应,已经很说明问题。

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

01

Token效率成新赛点

官方技术文档介绍,Ling-2.6-flsah是一款总参数量104B、激活参数7.4B的Instruct模型,此前通过Elephant Alpha展示出的核心能力,主要来自三方面革新:

▪混合线性架构,释放推理效率:通过引入混合线性架构,模型从底层优化计算效率,在4卡H20条件下推理速度最快可达到340 tokens/s,Prefill吞吐达到Nemotron-3-Super的2.2倍,以更高的“费效比”完成任务。

▪ Token 效率优化,提升智效比:在训练过程中,研究团队对Ling-2.6-flsah的Token效率进行了针对性校准,力求以更精简的输出完成既定目标。在Artificial Analysis的完整评测中,Ling-2.6-flash仅消耗15M tokens,约为Nemotron-3-Super等模型的1/10,以更高的“智效比”完成任务。

▪面向Agent场景进行定向增强:针对当前需求最旺盛的Agent应用,Ling-2.6-flash在工具调用、多步规划与任务执行能力上持续优化,在BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench等评测中,即使面对激活参数更大的模型,依然能够取得相近甚至SOTA级别的表现。

打开网易新闻 查看精彩图片

API定价方面,Ling-2.6-flash输入每百万tokens定价0.1美元,输出0.3美元,属实属于“白菜价”了。目前其API服务已正式向用户开放,并提供了为期一周的免费试用。

单点极限能力的榜首,早已是你方唱罢我登场,Ling-2.6-flash更值得关注之处在于,它在控制Token消耗的前提下,仍然维持住了自身在Agent性能之争中的强大竞争力。多位海外评测者也指出,其输出风格与产品体验更接近“实用型而非单纯强大”的定位,这与其宣称的“追求极致智效比”形成了某种呼应。

作为第一款主打Token效率的模型,“高智效比”究竟是营销话术,还是实打实的能力?我们第一时间上手了Elephant Alpha,不追峰值能力,不刷榜单分数,而是将它放进真实任务场景中,实测结果说话。

打开网易新闻 查看精彩图片

02

实测:少即是多,Elephant Alpha实力几何?

▪测试一:基准测试——词元效率(Token Efficiency)基准

为确保客观性,我们以Qwen3.5-122B-A10B (Qwen3.5)和Nemotron-3-Super-120B-A12B (Nemotron-3-Super)作为基准参照,在同等测试条件下进行对比测试。

我们设计了三组测试任务:Token效率基准、上下文窗口验证和Function Calling与结构化输出。

其中,Token效率基准涵盖代码生成(4道题)、Bug修复(4道题)、文档摘要(3道题)、逻辑推理(5道题)和结构化输出(5道题)五大场景,统计各模型的信息留存率与Token消耗。256K的上下文窗口是Elephant Alpha的核心卖点之一。我们分别在64K、128K、200K三个长度下测试模型的信息召回能力。

Elephant Alpha的表现如何呢?先看测试结果:

打开网易新闻 查看精彩图片

可以看到,Elephant Alpha在评测人员收集的4个Bug修复任务上展现出显著优势,相对于Qwen3.5和Nemotron-3-Super成功修改通过3道的通过率,Elephant Alpha修改后的代码全部通过测试。

更高的信息留存率之下,输出Token反而更少。Elephant Alpha以1,017个Token完成了Qwen3.5和Nemotron-3-Super分别需要1,539和1464个Token才能达成的同等信息量任务,节省约50%。在AI落地日益讲究ROI的当下,这个数字颇有分量。

上下文窗口验证方面,三者均实现了100%召回率。受限于测试环境,我们未能触及256K上限,但200K级别的稳定表现已经证明了基础能力的可靠性,足以胜任大部分任务场景。

最后,三者在Function Calling测试(纯python环境)中均触发工具调用,但都只完成了单步操作(搜索文件),未完成"读文件→分析→写入"的三步连贯操作。这一结果提示我们,当前的Agent能力边界仍需在具体环境中进一步探索。

测试二:Coding测试——工程能力的真实考验

太多模型在基础测试中表现亮眼,但一进入真实工程场景,立刻拉胯。因此我们决定给Elephant Alpha再上点强度。

我们使用开源的opencode工具,将Elephant Alpha放进了一个完整的项目开发流程中:创建一个具备CRUD能力的RESTful API服务,包含数据库模型设计、路由配置、错误处理和单元测试。

这项测试考察的是模型的Coding工程能力,不仅仅是写出片段式的代码,更在于是能否理解需求、设计架构、处理边界条件,并在出现问题时回溯修改。

Markdown
请实现一个可运行、可测试的`Task` RESTful API服务,要求包含:

- CRUD接口:`POST /tasks`、`GET /tasks`、`GET /tasks/:id`、`PUT /tasks/:id`、`DELETE /tasks/:id`
-数据模型字段:`id`、`title`、`description`、`status`、`priority`、`due_date`、`created_at`、`updated_at`
-校验与错误处理
-单元测试
-项目结构说明与运行说明

约束:

- `title`必填且不能为空
- `status`仅允许`pending` / `in_progress` / `done`
- `priority`仅允许`low` / `medium` / `high`
-不存在资源返回`404`
-非法输入返回结构化JSON错误
-必须先做需求分析和架构规划,再编码
-如果测试失败或实现有问题,必须自行修复并说明原因

请输出完整项目,而不是零散代码片段。
先规划模块,然后逐步开发,最后测试。
展示你的工程化开发、测试与回溯修复能力。

先规划,再各个击破Elephant Alpha理解了“先规划后编码”的要求,在正式实现前先进行了需求拆解和模块设计,从数据模型、路由配置、校验器、控制器到测试框架,形成了清晰的MVC架构。这说明它不是一上来就堆代码,这种工程化思维,已经成为了模型能在生产级任务中真正落地的门票。

打开网易新闻 查看精彩图片

遇到bug,坚决改正。模块测试过程中遇到了一些“插曲”,代码出现了Python版本兼容性问题(async语法、PEP 604联合类型写法等),而Elephant Alpha从报错信息中快速定位问题根源,并自主完成了代码修正,无需人工介入。

这种“遇到问题→自我修正”的闭环,在传统开发中往往意味着额外的Token消耗,Elephant Alpha也不能免俗。但它的革新之处在于,更高的Token效率意味着它能在更紧凑的上下文中完成修正。对每一个环节的成本都如此砍下一刀,日积月累,不可小觑。

打开网易新闻 查看精彩图片

测试结束,不忘收个尾。Elephant Alpha最终交付了一个包含11个测试用例的完整项目,全部通过。它甚至还生成了清晰的项目结构说明和运行指南——从requirements.txt依赖管理到uvicorn启动命令,从安装到测试运行,一条龙完整交付。

对于工程师来说,这种“有始有终”的完成度已经达到了拿来即用的标准。

打开网易新闻 查看精彩图片

Elephant Alpha在Coding场景下展现了三大优势:先规划后编码的工程思维、自主修正的回溯能力,以及最重要的,用更少Token完成同等任务的效率优势。对于需要将AI融入开发流程的团队而言,这三个特质缺一不可。

打开网易新闻 查看精彩图片

03

Token效率重塑AI评价坐标系

如果说过去的大模型竞争,是一场“谁的参数量更大、谁的Benchmark分数更高”的军备竞赛,那么Elephant Alpha的出现,则是为这场竞赛开辟了一个新的维度,“同样强悍的智能,但我比你更省”。

无法忽视的事实是,在Agent逐步靠近真实场景的今天,用户的Token账单也越发承压。保守估计,一次代码补全任务可能消耗几十Token,一次多轮对话会烧掉数百,一个Agent任务跑下来,这个数字可能就飙升到了数千。Token成为硬通货,高效就不再是锦上添花,而是核心竞争力。

值得一提的是,在英伟达Nemotron 3 Super的一份报告中,还特意强调了以蚂蚁此前开源的Ling-flash-Base-2.0和智谱的GLM-4.5-Air-Base做基准。

由此可见,“智效比”正在成为模型Agent场景的通用语言。此后人们不再问“一次生成质量有多高”,而是“每Token消耗能换来多少有效产出”。在这个坐标系下,能用600 Token说清楚的事,就不该浪费800。

打开网易新闻 查看精彩图片

这场效率革命的影响,很快就会在产业链上下游爆发。

对开发者而言,更高的Token效率意味着更普惠的智能,它包括更低的调用成本、更快的响应速度、以及在生产环境中真正可接受的ROI。当AI落地不再需要“烧钱换体验”,应用的渗透速度将以指数级增长。

而在用户侧,这场效率革命也指向了一种更可靠的Agent。更少的Token消耗,将直接转化为更紧凑的上下文窗口、更低的幻觉风险、以及更稳定的多轮执行能力。只有当模型能在有限上下文中完成更多任务,“上下文膨胀”这个Agent落地最大的痛点,才真正有解。

在规模之外,当效率同样成为了模型价值的衡量维度,发生在模型层的争夺将真正迈上下一个台阶。

雷峰网文章