一觉醒来,Claude 用户迎来一个好消息,奥特曼迎来一个坏消息。
马斯克上周与 Anthropic 高管团队深入交流,逐一考察他们如何确保 Claude 对人类有益。考察结束后,他决定将 SpaceX 旗下 AI 数据中心 Colossus 1 的全部算力,租给这家此前曾被他视为竞争对手的公司。
这项合作在刚刚召开的 Anthropic 开发者大会上正式公布。大会同步发布了智能体平台、Claude Code 及开发者工具的系列重大更新,构成了 Anthropic 迄今规模最大的一次产品集中发布。
不过,Anthropic 产品负责人 Ami Vora 在大会上明确表态,此次大会不发布新模型,重点是让现有产品更好地服务开发者,帮助缩小模型能力与实际应用之间的差距。
马斯克跟 Anthropic 高管聊了聊,转头把数据中心租出去了
过去一年,Anthropic 遭遇了远超预期的需求增长。Claude API 调用量在过去一年增长了近 17 倍,Claude Code 开发者的平均周使用时长已达 20 小时。
算力供给跟不上需求,成为制约开发者体验的最突出矛盾。为此,Anthropic 宣布与 SpaceX 签署合作协议,获得其 Colossus 1 数据中心的全部计算资源使用权。
https://x.ai/news/anthropic-compute-partnership
Colossus 1 位于田纳西州孟菲斯,拥有超过 22 万块英伟达处理器,涵盖 H100、H200 及新一代 GB200,是目前全球规模最大的 AI 数据中心之一。
这笔合作对双方都具有战略意义。Anthropic 借此缓解算力瓶颈,SpaceX 则借助这一标杆客户,为即将启动的 IPO 增添商业说服力。路透社报道还指出,双方已就探索数吉瓦级在轨空间数据中心建设表达了兴趣,这也是 SpaceX 上市募资的核心叙事方向之一。
算力扩张的红利将直接传导至开发者。Anthropic 宣布将 Claude Code 的五小时速率限制翻倍,覆盖 Pro、Max、Team 及按席位计费的企业用户,并同步大幅提升 Opus 系列模型的 API 调用上限。
Anthropic 联合创始人 Tom Brown 在 X 上发文透露,Colossus 上的 Claude 推理服务将在未来几天内开始扩容,并感谢 SpaceX 的合作。他写道,为了跟上 AI 需求,将需要推动大量实体基础设施落地,而在快速调动现实世界资源这件事上,无论是在地球上还是地球之外,没有谁比 SpaceX 更强。
马斯克随即在同一帖子下进行了回复,首次公开披露了这笔合作达成的背后经过。他表示,上周他专程花了大量时间与 Anthropic 团队的多位高管深入交流,重点了解他们如何确保 Claude 对人类有益,最终留下了深刻印象。
他写道,接触到的每一个人都高度专业,且非常在意做正确的事,没有触发他的「恶意探测器」。他认为,只要 Anthropic 保持批判性的自我审视,Claude 大概率会走向对人类有利的方向。
正是基于这一判断,马斯克决定同意将 Colossus 1 租赁给 Anthropic。他同时还表示,SpaceX 的 AI 团队此时已将模型训练工作迁移至 Colossus 2,Colossus 1 因此有了向外部客户开放的条件。
时机恰好,一切正合适。
你去睡觉,Claude 继续上班
在模型层,Anthropic 研究 PM 负责人 Dianne Na Penn 回顾了过去 12 个月 Anthropic 共发布 8 个前沿模型的节奏,并以最新的 Opus 4.7 为例说明模型进化带来的实际价值。
编程智能体 Amp 将整个 Smart 模式迁移至 Opus 4.7,并因此简化了工具链架构;Rakuten 在自有基准测试中,使用 Opus 4.7 解决生产工程任务的数量是此前的三倍;In2 则发现 Opus 4.7 能在规划阶段主动识别逻辑错误并回溯修正,最终带来更快更干净的执行结果。
Dianne Na Penn 同步宣布了 Opus 4.7 上线后第二天推出的 Claude Design,开发者已开始用它与 Claude Code 结合构建生产级视觉界面。
她提出了「任务时域」这一框架,用来衡量模型在持续自主工作中能走多远。
去年模型能独立运行数分钟,如今已支撑数小时任务,而未来的目标是让智能体始终在线、主动感知、无需提示。她对开发者的建议是:要为下一个版本的 Claude 设计系统,而非仅针对当前版本,因为当一个此前失败的原型突然开始通过测试时,往往意味着产品机会已经出现。
在平台层,Claude Managed Agents 迎来三项核心新功能。
多智能体编排(multiagent orchestration)方面,主控智能体可协调多个拥有独立上下文窗口的子智能体并行执行,最终汇总结果。
现场演示的虚构创业公司 Lumara 搭建了三个子智能体:指挥官负责统筹整体任务进展、探测器负责筛选具备高价值采矿材料的着陆点、导航器负责规划飞行路径并确保安全降落,三者并行运作,整体表现优于单一智能体。
Outcomes 功能允许开发者用一个简单的 Markdown 文件编写成功标准,系统会据此创建独立的评分智能体,在每次执行后判断是否达标,并在允许的最大迭代次数内持续重试。演示中的判定条件涵盖无人机须软着陆、落点须为净空地带,以及须保留足够燃料以确保返回地球,三项缺一不可。
Dreaming 功能以研究预览版形式发布,是本次大会最受关注的发布之一。它允许智能体在会话结束后自动回顾历史执行记录,提炼规律,将学习成果写入记忆存储,供后续会话直接调用。
演示中,系统首次运行解决了六个模拟落点中的四个,开启 Dreaming 后,智能体主动梳理了此前所有任务的执行经验,整理出一份着陆操作规程,涵盖不同地形和燃料条件下的判断逻辑与处理策略,后续每次新会话启动时都会自动读取这份规程作为参考。第二次运行时六个落点全部解决,而开发者的操作仅是点击了控制台中的一个按钮。
Claude Code 层的更新,几乎每一项都在回答同一个问题:如何让开发者从重复性的操作中解放出来。
Routines是本次发布中最具代表性的自动化工具。开发者只需配置一次,选择 Cron 定时任务、GitHub Webhook 事件或自定义 API 调用作为触发器,Claude 便会在无人值守的情况下自动发起任务并生成 PR。
后续演示展示了一个真实场景:团队成员深夜提交 Issue,第二天早上 Routines 已监听到该事件,自动触发了一个包含幂等性、多币种处理和合规审计日志的完整退款功能实现,且 CI 异常被自动诊断修复。Claude Code 开发者 Boris Cherny 将这一转变总结为:默认动作不再是「我去提示 Claude Code」,而是「我让 Claude 去提示 Claude Code」。
Auto Mode内置分类器,对每次工具调用自动判断两件事:该操作是否具有破坏性,以及是否疑似提示词注入攻击。两项判断均通过则直接放行,彻底解决长任务中频繁等待审批的问题。
WorkTrees对 Git 工作树进行了封装和简化。开发者可通过 claude -w 命令启动独立工作树,也可以直接告诉 Claude 去创建,Claude 会自主判断是否应在隔离环境中实现新特性,并在任务完成后自动清理。演示中,两个工作树并行推进了新颜色和圆角滑块两个特性,互不干扰。
Auto Memory允许 Claude 跨会话积累项目知识,将构建命令、调试经验和项目偏好写入专属的 memory.md 文件,供后续会话和子智能体读取,无需开发者每次重复交代背景。
Code Review 采用多阶段多智能体审查模式:多个审查智能体分别关注代码的不同维度,再由验证智能体筛除误报,可通过 GitHub App 为所有 PR 自动开启,也可在 Claude Code 中用 /review 命令手动触发。Anthropic 内部所有团队均已启用这套流程,应用后工程师人均 PR 数量提升了 200%。
桌面客户端也完成了大规模更新。新版界面提供会话分组、计划视图、Diff 视图和文件视图,并新增实验性的「章节标注」功能,允许开发者为长会话中的关键节点打标题,生成可跳转的目录导航。
无闪烁终端渲染模式通过虚拟化滚动彻底解决了界面抖动问题,内存和 CPU 占用恒定,并支持鼠标点击交互。Remote Control 功能支持开发者在手机上接管本地会话,启动子智能体继续推进任务。
在 GitHub 专场,Copilot 产品总监 Mario Rodriguez 分享了大规模调用场景下的提示词缓存实践。GitHub 将缓存命中率目标设定在 94% 至 96% 之间,低于 70% 通常意味着系统存在配置缺陷。
他总结了三条核心经验:
系统提示词必须保持静态,任何动态内容都会导致缓存失效
工具前缀不能动态变更,否则整个对话的缓存将被全部清除
多模型混合调用时必须保证缓存亲和性,确保同一用户的后续请求命中相同缓存
他还特别指出,使用更长的上下文窗口并不必然带来更高成本,反而因减少压缩次数而降低了 Token 支出。
Advisor 策略是 GitHub 与 Anthropic 联合研发的成本优化方案,将执行与决策分离:Haiku 等轻量模型负责执行任务,遇到超出能力范围的问题时调用 Opus 提供建议。
现场演示显示,接入 Advisor 的一侧在 Haiku 仍在反复尝试时就已完成任务,整体成本低于单独使用 Haiku,智能水平接近纯 Opus。Eve Legal 使用该策略后,在保持前沿模型质量的同时将推理成本降低了五倍。
GitHub 还内部测试了名为「Robert Duck」的评论智能体,在以下三个节点插入批评性反馈,以更低代价在早期拦截错误:
规划阶段结束后,在进入执行前对方案提出质疑
复杂实现完成后,作为正式代码审查前的预审环节
测试编写完毕但尚未运行前,提前暴露潜在问题
该功能已在 Copilot CLI 的实验模式中上线,可随时手动调用。
大会压轴的现场编程环节由 Bun 作者 Jared Sumner 与 Claude Code 开发者 Boris Cherny 共同主持。
Jared 展示了 Bun 代码库的完整自动化流水线,每当社区提交 Issue,机器人 Robobot 便自动尝试复现问题并生成附带测试的 PR,其近三个月的 PR 贡献量已超过 Jared 本人。
整场演示历时约 25 分钟,Robobot 在无人干预的情况下完成了 4 个 PR,每个 PR 均包含测试用例并经过代码审查机器人的多轮往返评审。
一个人的十亿美元公司,今年就会出现
圆桌对话环节由 Ami Vora 主持,Anthropic 创始人 Dario Amodei 与 Anthropic 总裁 Daniela Amodei 双双登台。补充一个热知识,Dario Amodei 和 Daniela Amodei 是两兄妹。
从左往右依次为 Ami Vora、Daniela Amodei、Dario Amodei
Daniela 将公司目前的状态比作一辆轨迹几乎垂直向上的过山车,她和 Dario 分别坐在车头和车尾,感受到的冲击方向不同,但肾上腺素同样充沛。
Dario 则认为自己十多年前与同事基于 Scaling Law 在图表上画下了那些曲线,预测模型能力将随计算量指数级增长,如今看着一切正按图索骥地发生,感受就像《星际穿越》里那位了解广义相对论数学的物理学家,在纸上早已算清,真正亲眼目睹时仍然被震撼。
Dario 指出,今年是 Anthropic 首次出现外部增速超过指数曲线的情况。
Anthropic 原本为 10 倍年化增长做了详尽规划,但今年第一季度的折算年化增速达到 80 倍,这正是与 SpaceX 签署算力合作的直接原因。他坦言希望增速能回到「仅仅」 10 倍,因为 80 倍的速度实在难以从容应对,但无论如何,Anthropic 都会尽力将更多算力传导给开发者。
Daniela 强调,开发者是 Claude 最重要的用户群体,原因有三:
开发者给出的反馈最真实,是 Anthropic 改进产品的核心信息来源
Anthropic 自身也是以开发者为主体的组织,双方有天然的共同语言
开发者社区正在用 Claude 构建医疗、法律、金融等垂直领域中最有潜力和挑战性的产品
她说,Anthropic 从创立第一天起就主要面向开发者和企业构建,这是其在 AI 生态中相对独特的定位。Dario 也对未来开发者工作方式的演变提出了三个判断:
从单智能体走向多智能体协作,Claude 开始扮演「团队管理者」角色,逐步向「数据中心里的国家级天才团队」演进
生产力提升的边界从个人延伸到整个组织,如何让团队层面的协作效率实现非线性跃升,将是下一阶段的核心命题
Amdahl 定律(Amdahl定律指出:对系统进行优化时,整体性能的提升上限受限于被优化部分在总任务中所占的比例,即串行瓶颈决定了并行加速的天花板。)在这里同样适用,当代码生成速度提升三到四倍,安全审查、变更验证等此前不是瓶颈的环节会成为新的制约,必须同步加速
关于模型训练方向,Dario 指出代码领域进展最快的原因在于可验证性,运行单元测试就能给出明确反馈,大大简化了训练过程。而当前正在探索的方向,是让模型在设计质量、安全漏洞识别等更具主观性的任务上也能获得类似的可验证信号,这一能力一旦突破,有望同步提升模型在写作、科学推理等领域的表现。
Daniela 还谈到了 Anthropic 内部的文化价值观「hold light and shade(兼顾光明和阴影)」,即同时拥抱机遇与风险。她以 Mythos 为例,认为该模型能力足够强大,但正是因为潜在安全影响尚未完全评估,目前仍未对外公开发布。她说,Anthropic 每一个重大决策的底层逻辑,都是如何在推动技术进步的同时对所有人负责。
最后,圆桌谈话在 Dario 的一个预测中落下帷幕。他表示,大约一年前,有人问他首家由单人运营的十亿美元公司会在何时出现,他的答案是 2026 年。
目前已出现两人团队创办的十亿美元 AI 公司,以及单人运营的亿级企业,距年底还有七八个月,他认为这一预测依然会生效。
这个判断背后的逻辑是,AI 正在将「如何建立一家公司」本身变成一项可以被模型辅助完成的任务,而不仅仅是帮助工程师写代码。
伴随着算力翻倍、速率放开、智能体自主进化,所有这些措施最终指向同一个问题:当 AI 工具足够强大,我们能做什么?决定差距的又是什么?相信此时此刻,每个开发者,每个普通用户都应该有自己的答案。
*封面由 AI 生成
我们正在招募伙伴
简历投递邮箱hr@ifanr.com
✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)
热门跟贴