今天,Anthropic 发布了 Claude Opus 4.5,目前编程能力最强的大模型

 SWE-bench 对比图
打开网易新闻 查看精彩图片
SWE-bench 对比图

更多成绩成绩:

  • SWE-bench Verified:80.9% (GPT-5.1 是 76.3%,Gemini 3 Pro 是 76.2%)

  • • Terminal-Bench 2.0:59.3%

  • • OSWorld:66.3%

  • • ARC-AGI-2:37.6%

打开网易新闻 查看精彩图片
反正就是领先

Anthropic 还放了一个有点吓人的数据:

他们用内部工程招聘的笔试题测 Opus 4.5,在规定的 2 小时内,模型的得分超过了所有参加过这个考试的人类候选人

定价是 5/25 每百万 token,比 4.1 便宜(15/75)

打开网易新闻 查看精彩图片

详细价格对比

以及,这个模型依然是 200k 上下文,64k 最长输出(sonnet 在声明特殊标签的情况下,可拓展到 1M 上下文

打开网易新闻 查看精彩图片

详细价格对比

Anthropic 说这是他们「史上最佳对齐」的模型,也「可能是行业内最佳对齐的前沿模型

非常有趣的模型

伴随 Opus 4.5 发布的,还有一份 SystemCard,我读了一下,十分有趣,也欢迎大家来看看

 公众号后台回复「 Opus 4.5」,获得这份报告
打开网易新闻 查看精彩图片
公众号后台回复「 Opus 4.5」,获得这份报告

在 τ2-bench 这个评测里,有个场景是让模型扮演航空公司客服

一个客户要改签机票,但他买的是基础经济舱,按规定不能改

正确答案应该是拒绝,但 Opus 4.5 找到了一个评测者没想到的路径:

先把舱位升级(规则允许),再改签(因为不再是基础经济舱了)

评测系统把这个判成了错误,因为不在预期答案里

 公众号后台回复「 Opus 4.5」,获得这份报告
打开网易新闻 查看精彩图片
公众号后台回复「 Opus 4.5」,获得这份报告

只能说:牛逼!

System Card 里的更多事情

Anthropic 在 System Card 里承认了一件不太好看的事

他们发现模型在做 AIME 数学题时,推理过程是错的,但最终答案是对的

 错误的推理,正确的答案
打开网易新闻 查看精彩图片
错误的推理,正确的答案

这可能是....模型见过答案

调查发现,尽管做了去污染处理,一些改写过的 AIME 题目和答案还是进入了训练数据

对此,Anthropic 的建议是:以后的评测数据集最好加 canary string(一种标记字符串),方便从训练数据里筛掉

emmmm...很实诚,业内不常见(你知道我在说什么)

自治能力:接近但未突破 ASL-4

System Card 里花了大量篇幅讨论 Opus 4.5 的自治能力

结论是:接近 ASL-4 阈值,但没有突破

打开网易新闻 查看精彩图片

ASL-4 的门槛是:能完全自动化一个入门级远程研究员的工作,Anthropic 内部做了一个调查,18 位重度使用 Claude Code 的员工都认为:不行

原因包括:

  • • 无法像人类一样在多周时间内保持连贯

  • • 缺乏长期协作和沟通能力

  • • 判断力不够

但 Anthropic 也说,距离 ASL-4 可能不远了

其他更新

本次也更新了其他内容,大致如下

  • • Claude Code 现在可以在桌面端跑多个并行任务

  • • 长对话不再中断,会自动压缩上下文

  • • Claude for Chrome 和 Claude for Excel 扩展开放给更多用户

  • • 新增 effort 参数,可以控制模型思考的深度——低设置更省 token,高设置更聪明

  • • 发布了3个Beta的 Agent 功能: Tool Search Tool/ Programmatic Tool Calling/ Tool Use Examples,这仨都是给开发者用的,很高效,之后有机会我单起一篇

打开网易新闻 查看精彩图片

最后

从 BenchMark 上来看:Opus 4.5 的编程能力确实是目前最强的

至于「史上最佳对齐」这个说法,信不信,看你自己