一个软件工程师每月的人力成本,按国家统计局的数据粗略估算,在国内是2到3万元左右。
如果只算他一天8小时在岗时间里真正执行任务的部分,折合下来大约是每小时110到170元。
Anthropic今天推出了一项新功能Claude Managed Agents,有一项定价写着$0.08/小时,折合人民币不到6毛钱。
这个数字本身不是重点,重点是它意味着Anthropic开始按小时计费。不仅收取使用的Token费用,还开始计算Agent跑了多长时间。
Managed Agents提供的是一整套现成基础设施,也就是Anthropic所说的agent harness:包括工具调用、记忆系统、权限控制、云端长时运行、Agents之间互相监控,以及沙箱环境等功能。
举个例子,假设我们要雇一个人帮你干活,会遇到什么麻烦?
招人阶段,要准备办公位(服务器)、要装电脑配系统(开发环境)、要写岗位职责说明书(代码逻辑)。
干活阶段:干到一半断网了,进度全丢(会话中断)、想查他干了啥,没有记录(无法审计)、担心他乱翻公司机密(权限管控)。
而Claude Managed Agents在这个过程中的作用,就是把这些麻烦事全包了。Anthropic表示,别再自己搭那个破烂不堪的草台班子了,把基建交给我,你们只管去想怎么赚钱。
通过在Claude官方的Agent搭建控制台或者使用API的方式,我们直接下达Agent需求,Claude Managed Agents负责给他工位、看着他干活、保证他不乱来。
目前,Claude Managed Agent正在公测中,任何人、企业都可以快速地构建一个能干活的真.Agents数字员工。
过去两年用了无数的Agents,几乎每天都有开发者推出自己的Agents产品。有的面向编程代码,有的面向设计,最后这些Agents都被统一到,去年是Manus类,今年是OpenClaw类的大家族里。
但如果想要自己部署一个更个性化的Agents,尤其是一个能给其他人用的Agent,我们需要自己处理对应的服务器,要设置复杂的机制防止它崩溃,要给它接管数据库的安全权限,还要用合理的方式管理Agent的上下文记忆。
Managed Agents把这些全部承包了。
它的结构围绕四个概念展开。Agent定义这个员工是谁:用什么模型、遵循什么系统提示、能调用哪些工具。Environment是一个配置好的云端容器,预装了Python、Node.js等运行环境。
Session是一次具体的任务运行实例,有完整的事件历史,随时可以查。Events是我们和agent之间传递的消息——任务指令、工具结果、状态更新。
过去那种「手搓」Agent的复杂模式,直接被Claude Managed Agents压缩成了全自动的流水线。
如果你是开发者,可以直接调API或者用CLI,几行代码创建agent、配置运行环境、启动session、接收实时事件流。整个流程文档写得很清楚,从零到跑起来大概半小时。
如果你不写代码,Claude Console提供了完整的可视化界面。选模型、写系统提示、接MCP工具、挂外部服务,全部点击完成。配置好之后可以直接在界面里测试,看agent怎么响应,不满意就调,满意了再让它持续跑着。
Console的构建页面里有一个「What do you want to build?」的输入框,旁边是模板库,覆盖了研究员、数据分析师、客服助理、事故响应协调员等现成角色,每个都预先接好了Slack、Notion、Asana、GitHub、Jira这些工具的连接。选一个模板,改改描述,就能开始。
不过,仅开通了Claude会员还不够,目前还是需要有API计划,即绑定信用卡有一定Token额度,才能使用Managed Agent。
Managed Agents在工程上有一个核心决策,和最近一直在讨论的Harness工程相关,它决定着这套系统能不能真正用于生产。
Anthropic在官方的工程博客里用一个特别扎心的比喻,解释了Managed Agent的结构设计。
他们认为早期的Agent架构,非常像是在「养宠物」。开发者习惯把Claude(大脑)、执行代码的沙盒(手脚)以及它的记忆(会话日志),一股脑地塞进一个巨大的服务器容器里。
这个容器变得无比娇贵,我们不能让它死。一旦容器卡死或崩溃,AI的脑子和手脚一起完蛋,用户的任务数据瞬间清零;容器里同时跑着用户凭证和Claude生成的代码,一旦有提示词注入攻击,凭证就直接暴露。
Anthropic的解法是,把「大脑」和「双手」彻底分开,容器变成了随时可以牺牲的「牛马」,即从养宠物变成养牛马。
调度器(大脑)不再住进容器里。它像调用外部工具一样,对容器发号施令。如果容器在执行危险代码时崩溃了?大脑根本不慌,它会记录下一个错误代码,然后毫不犹豫地重新拉起一个新容器继续干活。
使用Agent留下的记忆,也不再被塞进某个AI或者容器拥挤的脑子里。分开运作后,所有的记忆被单独存放在外部的会话日志中,就像一个外接硬盘。
大脑通过标准化的调用方式指挥双手,不在乎双手是容器、是外部服务还是别的什么。哪只手出故障了,换一只,大脑继续跑;大脑自己崩了,从对话日志里恢复,接着干。
这个设计带来了性能的大幅提升。解耦之前,每个对话启动都要等容器完整初始化,系统要花很长时间去拉起一个包含了庞大调度逻辑的沉重容器。
现在,首次响应时间降低了超过90%,安全边界也因此变得清晰——Claude生成的代码在沙箱里跑,凭证在沙箱外的保险箱里,两者之间有专用Agents隔离,agent永远拿不到原始凭证。
更重要的是,它让Agent真正具备了可以长期稳定干活的能力。
Anthropic提到,Notion已经在内部使用Managed Agents搭建了帮助工程师写代码、帮知识工作者做演示的企业Agent。
Rakuten把销售、市场、财务、HR的agent都用Managed Agents部署了,每个专项agent的上线时间是一周。
Sentry的调试agent在发现bug之后,会自动写补丁、开PR,开发者收到的是一个可以直接review的修复方案,整个流程不需要人介入。
可以说,以前的大模型公司提供的是模型API,即处理我们的每一条消息;Anthropic做出的改变是将基于消息的API包装成可以直接交付工作的Agent API。
这种改变首先体现在Claude Managed Agents的定价结构上。根据官方博客,Managed Agents的计费包括Token费用(标准API价格,Sonnet 4.6是$3/M input,$15/M output),加上$0.08/session-hour(按实际运行时间计费,idle时间不算),和Web search另计:$10每1000次。
Anthropic有举例,一个使用Opus 4.6、跑50K输入+15K输出token的一小时coding session,总成本约$0.70。
和专门请一个员工来处理相比,现在企业自己就可以通过Managed Agents创建一个内部的Agents。数字员工的概念,又被往前推进一步。
此外,对Anthropic来说,这也意味着收入开始和企业的自动化程度直接挂钩,企业跑的agent越多,Anthropic收得越多。这和AWS从「卖服务器」变成「卖运行时间」是同一个逻辑,他们打开了一个比卖订阅大得多的市场。
大模型技术发展到现在,单纯比拼参数和跑分的红利期似乎正在消退,毕竟能力真正强的大模型,也被限制不能开放使用。
真正的战场,又回到了「如何让这群聪明的脑子,最稳定、最廉价地在工厂流水线上打工」,Claude Managed Agents的推出,就是AI基础设施走向成熟的一个里程碑。
回头看Claude今年的每次更新,无论是模型还是产品,几乎都踩在了我们对AI能做什么的痛点上。
一方面在持续提升模型的能力,不被外界生视频、浏览器、生图模型那些方向干扰;另一方面是从Cowork开始,到后面疯狂打补丁复制OpenClaw的全部功能,再到今天推出一个专门用来开发和部署Agents的平台,每一次都是极其敏锐的产品视角。
Anthropic正在开创一个新的发布模式,即从「我们发布了一个更快更好的工具」,变成「我们为你准备好了构建数字员工的完备基础设施」。
据说有开发者已经在Console里测试时,让Agent连续跑了72小时处理一批历史数据归档,中间断过两次,系统自己重启容器续上,最后输出了一份带索引的完整报告——而账单显示,这三天只花了不到两美元。
热门跟贴