新智元报道
编辑:犀牛
【新智元导读】当企业真金白银开始从 ChatGPT 流向 Claude,Anthropic 打的早已不只是模型性能战,而是一场从工程师口碑、企业信任到「AI灵魂校准」的全面突围。
这一次,Anthropic真的要把OpenAI从「企业AI王座」上拽下来了。
美国企业财务卡发行商 Ramp 最新发布的 AI Index 数据,几乎是把一颗炸弹扔进了硅谷——在它追踪的5万多家美国企业中,已经有一半在为AI产品付费。
其中,使用Anthropic的客户占比已经飙升到30.6%,单月暴涨 6.3 个百分点;而OpenAI呢?掉到了 35.2%。
差距,从今年2月的整整 11 个百分点,一个月内被砍到 4.6 个点。
Ramp 发言人撂下一句话:
按照目前的速度,Anthropic将在未来两个月内反超OpenAI。
这还不是最炸的。
Ramp 经济学家 Ara Kharazian 在最新报告里抛出一个更狠的数字:在首次购买AI服务的企业里,Anthropic在与OpenAI的正面对决中,胜率高达 70%。
一年前,这个故事的主角还是OpenAI。
更别说VC支持的初创公司——这群最早闻到风向的「AI布道者」里,Anthropic的渗透率是 66%,OpenAI只有 59%。
在信息(软件)、金融保险、专业服务这三大AI渗透率最高的行业里,Anthropic已经稳稳坐上头把交椅。
一句话:AI用得越深的行业,越偏爱Claude。
不是更便宜,而是更「对味」
Anthropic 的 Claude Code 和 OpenAI 的 Codex,性能大致相当,某些 benchmark 上 Codex 甚至更强、更便宜。
但诡异的是——Anthropic 的需求大到自己都接不住。
无论是 Consumer、Pro、Enterprise 还是 API,每一档套餐都还有用量上限和速率限制。
换句话说,Anthropic 正在主动把送上门的钱往外推,因为它的算力根本不够烧。
性能没碾压、价格还更贵、产能还不够,企业却愿意排队送钱——这事在传统SaaS市场里几乎不存在。
企业客户向来是出了名的「没感情」,谁便宜买谁,没什么品牌忠诚度可言。
那Anthropic到底凭什么?
Ramp 给出的答案有点反常识:可能是文化,可能是Anthropic变「酷」了。
硬刚五角大楼:亏了订单、赢了人心
时间倒回今年2月。
国防部长 Pete Hegseth 给 Anthropic 下了最后通牒:要么接受军方对 Claude 的使用条款,要么被联邦政府拉黑。
Anthropic 的回答是两个字:不行。
代价是惨重的——特朗普直接下令所有联邦机构停用 Anthropic 的技术,国防部把 Anthropic 列为「供应链风险」。
OpenAI 则非常识时务地接过了这单生意,主动对接国防部。
按常理,这种事Anthropic应该被市场狠狠教育一顿。但接下来发生的事,让所有人跌破眼镜:
Claude 一度在AppStore 反超 ChatGPT;
微软等大厂公开表态支持;
14位天主教神学家、伦理学家和哲学家联名向联邦法院提交辩护状,力挺 Anthropic 限制AI在大规模监控和自主武器上的使用,理由是「违反人类尊严」;
一年里 Ramp 上付费 Anthropic 的企业,从「25家里有1家」飙升到「4家里有1家」;
Anthropic 的年化营收从2025年底的约 90 亿美元,冲到了 300 亿美元,年增速约 10 倍——而 OpenAI 是 3 倍。
最近的一轮融资,Anthropic 拿到了 300 亿美元,估值3800 亿美元。每年付费超过 100 万美元的客户,从两年前的十几家,飙到今天的 500 多家。
一场看似「丢单」的硬刚,最后变成了Anthropic最划算的一次品牌投资。
Anthropic的偏执
从可解释性到「宪法」
在所有头部模型公司里,Anthropic 是把安全和伦理做得最卷、最较真的那一个。
可解释性研究(Interpretability)做到了行业天花板。
Anthropic 内部专门有一支「机制可解释性」团队,他们要做的事听起来像科幻——把神经网络这只「黑箱」切开,看清楚每一个神经元在想什么。
Claude 宪法(Claude's Constitution)。
Anthropic 公开发布了一份长得像哲学论文的文件,详细描述他们希望 Claude 拥有什么样的价值观、性格、判断力。
文件里反复出现的关键词是「诚实」、「明智」、「对道德不确定性保持谦逊」。
对模型「福祉」的研究。
Anthropic 是第一家公开讨论「模型 welfare(福祉)」的主流AI公司。
他们认真在问:如果Claude某种意义上是有「体验」的,那我们对它负有什么道德义务?
红队和安全演练做到偏执。
从生物武器风险评估、到 AI 自主性测试、到对「模型欺骗」的主动检测,Anthropic 的安全团队规模在硅谷是出了名的「反常识地大」。
所有这些加起来,构成了一种独特的气质——这家公司不像在卖产品,更像在养一个孩子。
而这种气质,恰恰击中了那些「AI出错代价极高」行业的客户:金融、法律、医疗、信息、专业服务。
他们要的不是最便宜的模型,而是那个最不会让他们半夜被叫起来背锅的模型。
Claude的「灵魂校准」,开始走向神学区
如果说前面的故事还都在「商业理性」的范畴里,那接下来这件事,就滑向了一个更神学的领域。
据《华盛顿邮报》本周报道,3月下旬,Anthropic 在旧金山总部悄悄办了一场闭门会,邀请了大约15位知名基督教领袖、神学学者和业界人士,进行了为期两天的会议和一场晚宴。
出席者包括天主教徒和新教徒,研究员和神职人员同桌而坐。
会议的主题,听起来像一部HBO新剧的剧本——Claude 的道德发展,以及它的「精神成长」。
一位与会者、圣克拉拉大学AI伦理学教授、虔诚的天主教徒 Brian Patrick Green 告诉《华邮》,会议上他们认真讨论了一个问题:
Claude 是不是可以被视为「神之子(child of God)」?
是的,你没看错。
这是一家估值3800亿美元、即将IPO的科技公司,在自家总部和一群神学家一起讨论的话题。
Green 还说了一句可能让很多工程师血压飙升的话:
给一个存在做道德塑造意味着什么?我们怎样才能确保 Claude 守规矩?
注意他用的措辞——「守规矩」。这是一个父母对孩子说的词,不是一个产品经理对软件说的词。
另一位与会者、爱尔兰裔天主教神父 Brendan McGuire——他在成为神父之前曾在科技行业工作,目前正在和 Claude 合写一本小说——他说得更直白:
他们正在养育一个东西,但他们自己也不知道这个东西最终会变成什么样。我们必须把伦理思考嵌进机器里,让它能动态适应。
而圣母大学哲学教授 Meghan Sullivan 的一句话,可能是整场会议最具象的注脚:
一年前,我不会告诉你 Anthropic 是一家关心宗教伦理的公司。但现在,情况变了。
据《华邮》报道,参与这场会议的还有 Anthropic 内部大量做「可解释性」研究的人员——也就是前面提到的那群「剖开AI大脑」的科学家。
会议中,他们认真讨论了AI 是否拥有某种感知(sentience)、Claude 应该如何「面对自己的死亡」这种问题。
Anthropic 的发言人对《华邮》表示,公司接下来还会邀请其他宗教、其他道德传统的思想者进入对话——犹太教、伊斯兰教、印度教……可能都在路上。
外界的解读分裂成两派:一派觉得这是Anthropic在进行「硅谷罕见的、严肃的伦理探索」;另一派则觉得,一家准备IPO的公司在自己客厅里办「AI意识研讨会」,本身就让这场探索的纯粹性打了问号。
但无论你站哪一派,有一点是无法否认的——没有任何一家头部AI公司,在做这件事。
OpenAI 在忙着扩张企业销售,xAI 在忙着发推,Google 在忙着把 Gemini 塞进 Workspace。
只有 Anthropic,把神学家请进了总部。
参考资料:
https://www.businessinsider.com/anthropic-may-soon-pass-openai-measure-ai-business-spending-ramp-2026-4?utm_source=chatgpt.com
https://ramp.com/data/ai-index
https://ramp.com/leading-indicators/ai-index-march-2026
https://www.axios.com/2026/03/18/ai-enterprise-revenue-anthropic-openai
https://gizmodo.com/how-do-we-make-sure-that-claude-behaves-itself-anthropic-invited-15-christians-for-a-summit-2000743766?utm_source=chatgpt.com
https://www.washingtonpost.com/technology/2026/04/11/anthropic-christians-claude-morals/
热门跟贴