进入2026年,AI智能体进入了加速发展的新阶段,Claude Code和Codex基本实现完全自主的编程,以及OpenClaw带来的个人智能体的浪潮,冲击着现有的软件行业,一场白领工业革命正在展开,它可能颠覆传统的就业、分配、经济增长范式,是把经济带入后稀缺时代,还是创造幽灵GDP时代,各种耸人的述事,在各界引发了广泛的焦虑。

引领这一浪潮的Anthropic,也刚刚完成了300亿美元的融资,估值达到了3800亿美元,越来越多软件公司和白领工作者把它们的业务建立在Claude之上,它还是唯一在美军机密系统中使用的大模型。

但是,AI的加速所带来的另外一场潜在的危机爆发了,就像2023年底在OpenAI内部因为安全问题爆发的那场董事会政变一样,这一次也是因为安全问题,发生在美国政府与一家前沿人工智能实验室之间。

美国总统特朗普和他的战争部长海格塞斯,宣布美国联邦政府封杀Anthropic,把它列为供应链风险,任何与美军做生意的公司,都必须切断与Anthropic的生意;并且要求Anthropic用六个月时间退出政府服务。这是美国政府首次对一家本国的公司采取如此封杀措施,通常都是用来对付对手国家的。

原因是Anthropic要求在与美军合作的条款中,加入两个限制,不得把Claude模型用于对美国公民的大规模监控,不得用于自主致命武器。这再次令人想起了当年杜鲁门与奥本海默之争。

Anthropic CEO 阿莫迪(Dario Amodei)所想象的世界,将是由一群在服务器里的天才主导;但特朗普斥之为“一群根本不懂现实世界的家伙”。现在,这两个世界碰撞了。

(美国战争部长海格赛斯与Anthropic CEO 阿莫迪)
打开网易新闻 查看精彩图片
(美国战争部长海格赛斯与Anthropic CEO 阿莫迪)

Anthropic是一家什么样的公司

Anthropic成立于2021年,由达里奥·阿莫迪与其妹妹丹妮拉·阿莫迪(Daniela Amodei)联合创立,两人此前均在OpenAI任职。达里奥曾担任OpenAI研究副总裁,是GPT-2和GPT-3的核心参与者,也是“人类反馈强化学习”(RLHF)方法的联合发明人。

离开OpenAI的直接原因是理念分歧。达里奥及一批研究者认为,OpenAI在快速扩大ChatGPT规模的同时,对安全研究的投入严重不足,正在将商业部署的速度置于安全之上。他们选择出走,带着“用安全换取信任”的信条,创立了Anthropic——这个词的本意就是“以人为本”。

Anthropic最具代表性的技术贡献是“宪法AI”(Constitutional AI,简称CAI)。传统AI对齐方法主要依靠人类标注员对模型输出进行评分排序,这种方式成本高、主观性强,且难以系统化。

宪法AI的逻辑是:与其告诉模型“不要做这件事、那件事”,不如给它一部“宪法”——一套顶层的价值观与原则文件,让模型在训练时将这些原则内化为自身的“性格”和“世界观”。达里奥在其文章中这样描述这部宪法:

宪法的风格,像是一封写给已成年子女的遗书——给AI以顶原则和价值观,配以详尽解释和丰富示例,让Claude理解我们的意图,鼓励它以一个有道德但思维平衡、有独立思考能力的人自居。

Anthropic的宪法借鉴了《联合国世界人权宣言》等文件,并在此基础上加入了公司自己的伦理框架。模型训练不再仅是能力训练,而是人格塑造。这套方法后来被多家AI公司借鉴,成为业界在“对齐”领域的重要参考范式。

在这一理念下,Anthropic还发展出了“可解释性”(Interpretability)研究,即试图理解AI模型内部的运作逻辑,而非把它当作无法理解的黑箱。公司还引入“负责任扩展政策”(Responsible Scaling Policy,RSP),规定只有在建立相应安全措施后,才能将模型扩展至新的能力门槛。

安全理念对Anthropic商业成功起了什么作用

Anthropic的安全优先理念不仅是道德旗帜,更成为了强大的商业护城河,尤其在企业与政府市场中效果显著。

在企业市场,大量金融、法律、医疗行业客户在选择AI供应商时,首要考量是合规性和可预期性——他们需要的不是最激进、最快迭代的模型,而是最可控、最不会给公司带来法律与声誉风险的模型。Anthropic的Claude模型在这一维度上具有天然优势,这也是为何其企业收入增长迅猛。

在政府和国家安全市场,Anthropic成为首家获准在美国军方机密网络中部署模型的商业前沿AI公司。Claude在五角大楼的应用涵盖情报分析、模拟推演、网络作战等核心领域,甚至被媒体报道用于协助捕获委内瑞拉总统马杜罗的行动。这一地位本身就是安全口碑的最高认证。

从投资层面看,Anthropic吸引了来自亚马逊(累计投资规模从最初80亿美元增至如今接近700亿美元)、谷歌、英伟达等战略投资者,以及大量机构资本。在硅谷文化中,Anthropic的稳健形象形成了差异化定位。

2025年,Anthropic营收达到140亿美元,估值达3800亿美元,正在筹备上市。这意味着,至少从商业层面看,“安全即品牌”的策略获得了市场的充分验证。

为何特朗普阵营和自由意志者们不喜欢阿莫迪

达里奥的思想形成深受有效利他主义(Effective Altruism,EA)运动影响。EA是一个起源于牛津大学哲学圈、主张用理性和数据驱动慈善的思想流派,其后一个重要分支“长期主义”(Longtermism)将AI存在性风险列为人类最需警惕的威胁。

Anthropic大量早期员工从EA社区招募而来,公司的核心研究议程——宪法AI、对齐研究、可解释性——在知识谱系上都与EA资助的研究机构深度交织。

然而,EA运动因FTX创始人山姆·班克曼-弗里德(Sam Bankman-Fried)的刑事定罪案遭受重创,有效利他主义者的标签在许多政策圈和商业圈开始变得敏感。达里奥近年来一直在主动与EA保持距离,在公开场合将其安全理念描述为“工程纪律”和“企业责任”,而非某种哲学运动的产物。

特朗普政府和硅谷自由意志主义者圈子以及加速主义者(accelerationist),对阿莫迪的反感有几个层面:

第一,意识形态标签。特朗普将Anthropic斥为“激进左翼”和“觉醒公司”,国防部长海格塞斯则直接用“有效利他主义的虚伪修辞”来攻击阿莫迪,暗示这种安全语不过是左翼精英对军队的道德管束。

第二,监管立场。阿莫迪曾在国会作证呼吁对前沿AI实验室进行监管,并将AI与核武器和生物武器相提并论,强调行业需要类似“生物技术”或“核工业”的外部监督。这与硅谷自由意志主义者“少管制、快奔跑”的信条背道而驰。他们认为,安全话语是已成功的大公司用来扼杀竞争者的“监管护城河”。

第三,政治站队。在特朗普2024年竞选期间,硅谷许多科技巨头开始向特朗普靠拢:马斯克成为最大金主,贝索斯旗下的《华盛顿邮报》拒绝为哈里斯背书,扎克伯格也大幅调整政治姿态。但阿莫迪公开支持哈里斯,并且与拜登政府关系密切,成为特朗普政府在硅谷的眼中钉。

阿莫迪特朗普白宫关系危险的疏远

特朗普第二任期开始后,白宫AI与加密货币顾问大卫·萨克斯(David Sacks)率先公开给Anthropic贴上“觉醒”标签。阿莫迪当时回应称,“Anthropic、政府以及各政治派别的领导人都追求同样的目标”,试图缓和矛盾。

但紧张关系并未缓解。五角大楼与Anthropic的合同谈判持续数月,分歧始终集中在两个核心禁区:其一,拒绝将Claude用于对美国公民的大规模国内监控;其二,拒绝将Claude集成至完全自主的致命武器系统中。

五角大楼一再施压,要求Anthropic同意将技术用于“所有合法目的”,实质上是要求公司放弃对上述两个使用场景的限制。Amodei则坚持认为,这两种用途不仅触碰了民主价值观的底线,而且当前AI技术根本没有可靠到足以在这些场景中独立运作的程度。

2026年2月26日,五角大楼发出最后通牒,限期翌日(27日)下午给出答复。阿莫迪在27日发表声明:我们无法凭良心接受他们的要求……我相信民主的存亡,在相当程度上取决于这场技术革命的走向。

特朗普随即在自家社交媒体上下令:要求所有联邦机构立即停止使用Anthropic的任何技术,并给予六个月过渡期。海格塞斯宣布将Anthropic列为“国家安全供应链风险”——这一称谓通常只用于外国对手公司。五角大楼承包商及合作伙伴被要求与Anthropic切断一切商业往来。

马斯克对Anthropic的攻击与怨

马斯克攻击Anthropic,既有商业竞争动机,也有意识形态动机,两者相互交织。

商业层面,马斯克的xAI公司和其Grok模型与Anthropic的Claude直接竞争。Anthropic此前切断了xAI对Claude模型的访问权限,马斯克以此为由,在X上称:“对我们不友好,要遭到报应(karma)的”,并频繁在公开场合抨击Claude存在种族和意识形态偏见。

2026年2月,就在Anthropic宣布完成300亿美元融资(估值3800亿美元)后数小时,马斯克在X上发文称Anthropic的AI模型“仇恨白人和亚裔,尤其是中国人、异性恋者和男性,这是仇人类的、邪恶的”,并嘲讽说」Anthropic“注定会变成「Misanthropic(仇人类)”。

在Anthropic被封杀当天,马斯克则发文称该公司“仇恨西方文明”(hates Western civilization)。xAI已经与五角大楼签署协议,将Grok引入军事机密系统,在Anthropic被驱逐后的位置上,xAI俨然成为首要受益者。

不过,据政府内部人士向Axios透露,五角大楼内部对Grok的可靠性和安全性存在重大疑虑,替代并非简单地「换一个模型」那么容易。

马斯克对Anthropic持续不断的诅咒,似乎起了作用。与此同时,大批华人研究人员也在纷纷撤离xAI。

打开网易新闻 查看精彩图片

奥特曼为何支持Anthropic他们是否代表硅谷AI伦理共识

奥特曼与阿莫迪既是昔日同僚,也是如今的直接竞争对手,关系颇为微妙。两人最近公开交火,因为Anthropic在超级碗推出的一系列广告,讽刺OpenAI在ChatGPT中插入广告。

然而,在这场Anthropic与五角大楼的对峙中,奥特曼选择了公开支持Anthropic的核心立场。他在内部备忘录中写道:“无论我们如何走到这一步,这已不再只是Anthropic与五角大楼之间的问题,这是整个行业的问题,我们有必要澄清我们的立场。”

奥特曼明确表示,OpenAI同样坚守两条红线:不为大规模国内监控提供AI支持;不为无人监督的自主致命武器提供AI支持。谷歌、微软、亚马逊的内部员工也相继签署联署信,要求管理层维持同样的限制。

硅谷头部AI实验室罕见的集体发声表明,在某些核心问题上,在这些精英研究人员之间存在跨越竞争关系的基本伦理共识:AI不应被用于当前技术可靠性尚不支持的致命场景。奥特曼随即与五角大楼谈判,达成了一项允许OpenAI自行建立安全堆栈的协议——白宫允许OpenAI在合同中写入自己的红线,而不像对待Anthropic那样横加否决。

这一差异或许说明,在特朗普政府眼中,问题并不完全是技术立场,而相当程度上是政治信号,谁的姿态更顺从,谁就能获得更好的谈判结果。

硅谷的深层断裂带

这场风暴所揭示的,是硅谷内部早已潜伏多年的深层断裂带,只不过被这次事件以最戏剧性的方式引爆。

第一条线:技术加速主义者 vs. 有效利他主义者。前者代表人物有马斯克、马克·安德森等,相信AI能力的快速释放本身即是善,认为安全顾虑不过是精英阶层的控制欲,主张去除一切监管束缚,让技术以最快速度奔跑;后者代表人物有阿莫迪、早期OpenAI安全团队,他们则认为,AI能力的指数级增长正在逼近人类无法管控的临界点,慢下来是负责任的选择。这一次,OpenAI原首席技术官伊利亚(Ilya Sutskever)也罕见发声,支持阿莫迪。

第二条线:自由意志派 vs. 自由派。马斯克麾下的科技自由意志主义者们,在文化战争中已选择站队特朗普,将“觉醒AI”与“深层国家”(deep state)并列为需要击败的敌人;阿莫迪及其同仁则更贴近传统自由派精英文化,支持监管、强调价值观约束、与有效利他主义社区保持联系。

这场事件让这两条断裂线同时激化。前特朗普政府AI高级顾问迪恩·鲍尔(Dean Ball)在X上痛斥政府行为是“试图谋杀一家企业”,并警告:“我无法向任何投资者推荐投资美国AI公司;我也无法建议任何人在美国创办AI公司。”他还写道:“美国联邦政府现在是世界上对人工智能监管最严苛的政府,远超其他任何国家——而且遥遥领先。”

对硅谷前沿AI精英的影响:会在政治上划线站队吗

这一事件的震撼效果,一定程度上来自其树立的先例:一家公司因坚持自身的使用条款,被政府列为国家安全供应链风险——这一标签通常只用于对付中国一些头部科技企业。

短期内,已经出现了连锁反应:谷歌超过100名员工联署信,要求公司坚守同样的AI使用限制;OpenAI员工也有类似行动;微软、亚马逊内部同样出现了声援声音。这说明,在前沿AI实验室的技术人才群体中,已经形成了相当一致的伦理底线认知。

但更深层的影响,是对创业生态和人才流动的警告。鲍尔的话反映了一部分投资人和创业者的真实恐惧:如果一家估值3800亿美元、年营收140亿美元的公司,仅仅因为不肯签署一份无限制使用条款就被政府驱逐封杀——那么在这个政治环境下,哪家科技公司是安全的?

关于站队的问题:短期内,大多数公司会尽量保持模糊,避免成为下一个目标。但这一事件已经让政治立场变得不可回避,在AI军事应用与公民自由的问题上,沉默本身也是一种选择。谷歌、OpenAI、微软等公司的声援,无论是出于真正的价值认同还是出于商业自保,都已客观上出现了一条行业的政治分界线。

鲍尔这位前特朗普政府AI顾问,成为对白宫最激烈的抨击者,他直斥政府行为是“赤裸裸的精神病式权力攫取”、“几乎肯定违法”,并认为这正在摧毁美国作为AI投资天堂的国际声誉。

卡内基梅隆大学伦理学教授彼得·马森(Peter Madsen)呼吁所有AI公司与Anthropic采取同样立场,迫使特朗普不得不与「有伦理的AI公司「合作。

有效利他主义论坛有评论指出,五角大楼的强硬行动证明了自愿框架在面对国家强制力时毫无防御能力——Anthropic的自愿“负责任扩展政策”在政治压力下不堪一击。

五角大楼副部长埃米尔·迈克尔(Emil Michael)则称阿莫迪是“骗子”,有“上帝情结”,妄图“亲自控制美国军队”。他的论点是:大规模监控在宪法第四修正案下已属违法,允许AI用于“合法”目的并不等于允许违法行为——因此Anthropic的担忧是虚伪且多余的。

马斯克将Anthropic描述为“仇视西方文明”的公司,将硅谷的商业竞争关系上升为文化战争。

多位分析人士指出,Anthropic已明确表示将在法庭上挑战供应链风险认定,认为它“法律依据不充分,且将为美国企业与政府谈判树立危险先例”。法律层面,这一认定是否适用于美国本土私营公司,存在相当大的争议空间。

Axios的独家披露更是揭示出剧情的荒诞性:就在海格塞斯在X上宣布封杀决定的同时,五角大楼副部长迈克尔还在电话中向Anthropic提出新的谈判方案——其中包括允许收集美国公民的地理位置、网页浏览历史和金融信息。这意味着政府的真实诉求,已经超出了“军事自主武器”的范畴,延伸至可能涉及国内政治监控的领域。

封杀令对Anthropic的打击有多大

封杀令的直接经济损失相对有限。Anthropic与五角大楼的合同价值最高2亿美元,相对于其140亿美元的年收入,占比不足1.5%。阿莫迪本人也指出,公司估值与营收自坚守立场以来持续增长。

但潜在的间接伤害更为深远。其一,供应链风险标签要求所有与五角大楼有业务往来的承包商——包括帕兰提尔(Palantir,重度使用Claude的国防科技公司)——在六个月内与Anthropic切割关系,这将波及一批大型B2B客户。其二,这一事件正好撞上Anthropic的IPO筹备期,投资者对一家被政府列为风险的公司如何定价,是真正的未知数。其三,亚马逊、谷歌、英伟达均为Anthropic战略投资者,若供应链风险认定扩大适用范围,这些科技巨头将可能被要求从Anthropic撤资——这一逻辑正是鲍尔所说“企业谋杀”的核心所在。

总体而言,Anthropic的财务韧性可以支撑这一冲击,但象征性伤害和不确定性风险,将在相当长一段时间内笼罩公司。

如何影响特朗普与硅谷关系

此次事件是自特朗普第二任期开始以来,白宫与硅谷企业之间最激烈的公开对抗,性质远超此前的口角或政策摩擦。

2024/11/7 > 阅读全文

第一,它可能动摇特朗普第二次上台以来所形成的硅谷-华盛顿共识。过去一年,大量硅谷精英以为,拥抱特朗普可以换来监管宽松和政策红利。Anthropic案表明,这种换算并不可靠——政府会用行政权力直接扭曲市场,而受害者不一定是“敌人”,只是“不够顺从者”。

第二,它引发了对白宫AI政策背后的真实意图的广泛警惕。鲍尔这位曾经的特朗普阵营内部人士,愤怒批评“美国现在是世界上对AI监管最严苛的政府”,这与特朗普政府“去监管”的自我标榜形成了反讽式矛盾。

第三,它重新激活了硅谷与华盛顿之间关于谁来决定AI边界的根本性张力。政府认为,一旦购买了一项工具,使用权应当无限制地归属于购买方;企业认为,技术公司有权也有责任对破坏性使用场景设定条款。这两种逻辑的冲突,不会随着Anthropic这一个案的解决而消失。

谁来设定AI的边界

这场对抗,本质上是一场关于谁有权设定AI边界的权力博弈——不是一场技术辩论,也不是一场纯粹的法律纠纷,而是一场关于现代民主国家中政府权力与企业价值主张之间关系的哲学冲突。

进入2026年以来,Anthropic以其编程智能体Claude Code引领了一场智能体革命,它也看到了智能体快速的自我强化式的改善与扩展可能带来的风险,但是当一个通用性的新技术进入到广泛的经济与社会体系中时,它注定要与现有的框架发生碰撞,有时会相当剧烈。

这一事件将被写入AI治理史。它的意义不仅在于Anthropic的命运,更在于它迫使整个行业、整个社会思考:当人工智能深度嵌入国家机器时,谁是最后的守护者?