我先丢出结论:美国政府把Anthropic往死里整,不是因为它是外国公司、技术不行、或者不爱国。而是因为它亲手撕破了美国科技圈最虚伪的一层窗户纸:那些所谓的伦理底线、自主承诺、安全护栏,全是商业世界在军方面前不值一提的遮羞布

4月29日,美国国防部AI负责人卡梅伦·斯坦利在接受CNBC采访时放了一颗重磅炸弹:五角大楼正式确认扩大与谷歌的AI合作,把Gemini模型接入机密军事系统,用于分析目标情报、规划军事行动。斯坦利还特意补了一刀:“过度依赖单一供应商从来不是好事。尤其是在软件领域,我们亲眼看到了这一点。”

这句话虽然没点名,但没人听不出弦外之音。就在两个月前,美国国防部刚刚把硅谷AI独角兽Anthropic列为供应链风险,终止合作。同一个合同位,谷歌、OpenAI、xAI正排着队往里挤。硅谷最顶尖的四家AI公司,Anthropic被踢出局,另外三家连夜跑来捡漏。美国政府的逻辑很清晰——不听话就打,打完换一批更听话的。

整个硅谷都在讨论这是多么冷酷的地缘政治现实主义。但真正值得追问的问题远比“政府有多坏”要深刻得多:美国为什么宁可把自己的AI巨头往死里打,也要确保军方拥有完全不受限制的AI武器使用权?Anthropic到底拒绝了什么,以至于惹来如此灭顶之灾? 而更讽刺的是,谷歌一边抢着吃这块军方的蛋糕,一边有近千名员工联名抗议——这出戏,恰好暴露了美国AI行业最深层也最尴尬的集体精神分裂。

打开网易新闻 查看精彩图片

01. 两条红线:Anthropic的拒绝让美国军方发现自己没被当自己人

2025年7月,Anthropic与五角大楼签下2亿美元合同,成为第一个把前沿AI模型接入军方机密网络的企业。合作内容极为核心——Claude直接嵌入国防部的涉密任务工作流,包括在敏感军事行动中承担态势感知与决策辅助角色。这是五角大楼推进军事AI应用的核心项目之一。

但蜜月期不到半年就碎了。2026年1月,五角大楼突然翻脸,要求Anthropic解除AI系统中两项安全限制:第一项,禁止用于美国国内大规模监控;第二项,禁止用于完全自主的致命性武器系统。这两项是整个硅谷AI伦理的底线条款,也是Anthropic从创立以来给自己贴上的核心品牌标签。

五角大楼的逻辑是赤裸裸的军事需求:战地环境瞬息万变,指挥官必须拥有最广泛的行动权限。国防部长赫格塞思的原话是——在战场上,美军的作战安全优先级远远高于任何公司的服务条款。他要求Anthropic接受美军将该技术用于所有合法用途的统一条款。

CEO达里奥·阿莫代伊拒绝了自己的底线:我们从未反对具体军事行动,也从未临时限制技术应用。但某些应用场景超越了技术安全的客观边界——让AI在没有人类判断介入的情况下自主杀人,或者用AI对全体美国公民进行全天候的监视,这两件事超出了任何负责任的AI公司所能允许的范围。他还公开说过一句让很多美国人感到刺耳的话:“和政府意见不同,这是最美国的事。”

铁拳随即落下。2月27日,美国总统特朗普下令所有联邦机构立即停用Anthropic技术,给了六个月的缓冲期退出。五角大楼更狠——直接给Anthropic打上一个通常用来针对外国对手企业的标签,供应链风险。国防部全面禁用了Claude模型,国防承包商不得再与其合作。更让人窒息的是,国防部甚至威胁援引冷战时期的《国防生产法》,试图强制改写Anthropic的软件代码。

此后,Anthropic发起法律反击,旧金山联邦法院裁定封杀令可能违宪,暂时保住了与国防部以外政府机构的合作资格。但华盛顿上诉法院至今未解除军方禁令——这是一场仍然悬在半空、胜负未分却又足以改变整个行业格局的终极僵局。

打开网易新闻 查看精彩图片

02. 两条路径的终极对决:军方要的是无条件服从命令的武器,Anthropic要的是AI伦理的最后防线

这场冲突的本质,是两种主权之间的降维碰撞。

美国军方的逻辑:AI是武器,武器必须无条件服从指挥官。五角大楼认为,任何企业在战地杀人决策上设置技术壁垒,都是在侵蚀国家军事主权。服务条款不应凌驾于战场的火力指挥链之上。

Anthropic的逻辑:AI是技术,技术必须设置安全护栏。完全自主的杀戮不应该被外包给任何个体的企业决策权,这是伦理底线。创始人是深度神经网络的安全研究先驱,这批技术出身的AI科学家深知,一旦在没有人类监督的情况下让AI决定杀人,失控的将不止是技术,而是人类对战争的基本定义。

两边的逻辑各自完美自洽。五角大楼绝不允许一个企业CTO在战地决策链里插一脚;Anthropic绝不允许自己的代码在不设防的状态下沦为不承担任何道德代价的自主武器。这已经不是商业谈判能解决的分歧,这是关于未来战争性质的价值观决裂。

最终的结局是一个历史性的转折点:2月之前,全球AI行业默认的安全逻辑是——企业可以在追求利润的同时,通过自身的公开承诺书来实现道德自律。但特朗普的封杀令和五角大楼的供应链风险打碎了这种幻想。硅谷长达十年的伦理自洽,在一个下午就被连根拔起。

尤其值得思考的是,此次美军动用供应链风险这一标签,本用于应对外国竞争威胁,如今却被用于对付自家的顶流AI公司。这说明美国军工体系已经无法容忍具备独立技术判断和伦理立场的企业作为军事AI核心供应商——它需要的不是有底线的科学家,而是无条件服从的承包商。

美国政府要的不是美国公司,而是听话的美国公司。如果你的AI伦理底线妨碍了军事效率,你就是被清理的敌人。

打开网易新闻 查看精彩图片

03. 谷歌的三重投机:一面抢政府蛋糕,一面被员工亲手撕开的数字伦理裂缝

而在这场政府与企业伦理分裂的危机中,谷歌的入场堪称教科书级别的利益套利。

首先,谷歌向五角大楼交付的是一个完全去除伦理限制、可用于任何合法军事用途的AI模型。Gemini在美国国防部机密网络中,已经可以用于战场情报分析、任务规划、武器平台协同等高度敏感场景。相比Anthropic坚持保留的那两条红线,谷歌干脆把安全护栏全部交到了军方手里。这是一种彻底的技术投降——你给钱,我给码,怎么用是你的事。

然而更讽刺的是,就在谷歌高调签下国防部大单的同一周,超过700名谷歌员工联名致信CEO皮查伊,要求公司拒绝涉密军事AI项目。他们明确反对在没有清晰使用限制的前提下,向军方出售可部署在武器系统中的AI能力。这些工程师与被他们唾弃的Anthropic一样,都深知自动杀戮系统一旦上线,创造者的道德责任将无法被任何法律豁免。连《纽约时报》都评论道,这些谷歌员工担心公司会填补Anthropic留下的位置。

谷歌管理层做了什么呢?选择了另一条路。以工作场所禁止政治表达为由,解雇了带头抗议的员工。当Anthropic的上千名同行联名声援时,谷歌用最粗暴的方式封死了内部的伦理辩论窗口。这种冷峻到骨子里的做法,把硅谷多年自诩的技术伦理面具彻底撕裂——当政府订单与员工良知发生冲突时,盈利预期压倒一切。

一个极为精准的收购词汇正在硅谷流传:政府合同俘获。当五角大楼成为AI技术最大的采购方时,所有企业都面临同一个选择。要么跪下去接单,要么站起来挨打。谷歌选择了前者,用一个国防大单证明了自己的复合体席位。而Anthropic被牺牲掉的伦理防线,在这幅赤裸裸的利益宏图里,早已被压缩成了纯商业计算中最微小的砝码。

打开网易新闻 查看精彩图片

这场博弈里没有赢家。Anthropic丢了合同,背了官司,黑名单的阴影至今未消。五角大楼拿到了谷歌,却彻底捅破了整个硅谷“技术向善”的泡沫。而谷歌,坐在军方大单上笑得正开心,却发现自己后院早已乱成一锅粥——近千名员工联名抗议,伦理底线碎了一地,曾经引以为傲的安全承诺被高管层一手撕碎。