2月28日,美国以色列联军对伊朗发动的“史诗怒火”行动,进入了最激烈的阶段。
伊朗南部米纳卜市,一座偏远小镇的小学,成为空袭中最令人心碎的一幕,教学楼被夷为平地,现场一片狼藉,据伊朗官方统计,此次空袭共造成170余人丧生,大部分是无辜的孩童。
特朗普信口胡诌,说”这是伊朗人干的“。然而,更多消息源指出,美军应该对这一事件负责。
《纽约时报》在3月9日和3月17日两次发文,指出导弹很可能来自美国,现场视频中出现的武器为“战斧”式巡航导弹,以色列和伊朗均未拥有此武器。
《纽约时报》发起质问:如果是伊朗在墨西哥派遣特工,在德州边境发射导弹,导致美国学校有175人死亡,这对美国意味着什么?
很快,有一家美国AI公司卷入了风暴的核心。
《纽约时报》等媒体从美国政府内部获得的信息称,美军情报部门误用了过期的数据,将米纳卜的女子小学识别成了伊朗海军基地的一部分。
随后独立撰稿人罗伯特·莱特指出,美国大模型公司Anthropic旗下的大模型Claude正在锁定伊朗的轰炸目标,女子小学的悲剧很可能是Claude导致的。
马斯克在X上转发了这篇文章。
消息在全美疯传,不仅是因为上百位女童之死,更是因为一个好莱坞电影中的寓言正在变成现实:
——AI杀人的时代开始了,作为帮凶,它们制造了一起轰动世界的人道主义悲剧。
这场牵动全球格局的血腥冲突背后,Anthropic和它旗下的Claude大模型,已经褪去了“技术造福人类”的温柔面纱,沦为美军手中最锋利而隐秘的“战场大脑”。
而这一切的开端,都藏着一个理想主义者的野心、天真,以及一场无法挽回的迷途。
硅谷的技术新贵,高度迷恋一些乌托邦式的宏大口号,比如——改变世界。
不可否认,早年开源社区中曾寄托着着程序员们的理想主义,”开放共享“的反资本主义理念一度在硅谷盛行。
可时过境迁,这些口号早已因滥用而苍白无力。技术新贵们用各种崇高而远大的理想包装自己,雇佣着有才华的工程师,烧掉天文数字般的金钱,然后批量创造着亿万富翁,这是我们这个时代的神话。
Anthropic的创始人达里奥,是这个神话的一部分。
达里奥·阿莫代伊,一个出生于1983年的意大利裔美国物理学家。他是AI领域的明星,在斯坦福大学物理学本科毕业,随后斩获普林斯顿大学生物物理学博士学位,凭借过人的天赋,他先后在百度硅谷AI实验室、谷歌从事语音识别与大模型研发工作。
2016年加入OpenAI后,更是一路晋升至研究副总裁,主导了GPT-2、GPT-3两大里程碑式大语言模型的研发,成为OpenAI的核心支柱。
彼时的他,意气风发,相信AI的终极价值是服务人类,而非被商业化裹挟,这种理念,最终让他与OpenAI创始人萨姆·奥特曼分道扬镳。
2021年,阿莫迪带着妹妹丹妮拉·阿莫迪——同样是AI领域的顶尖研究者,以及十多名OpenAI核心员工集体出走,创办了属于自己的AI公司,取名Anthropic。
这个名字源自希腊语“与人类相关”,用来展示他的技术理想:打造可控、安全、对人类有益的AI,让技术始终走在伦理的轨道上。
创立初期,Anthropic凭借独特的“宪法AI”理念迅速崛起,Claude系列模型以“安全性高、不易产生有害输出”为核心卖点,获得了资本的青睐,也收获了行业的认可,阿莫迪一度成为“AI伦理坚守者”的代名词。
2024年11月,五角大楼递来了橄榄枝。
美军正全力推进AI军事化转型,急需一款顶尖的大语言模型,支撑其情报分析、目标识别等核心作战环节,而Claude的高安全性,恰好击中了美军的需求痛点,成为其首选合作对象。
对于Anthropic而言,与五角大楼合作,不仅能获得巨额资金支持,更能得到一种权威式的背书,从而快速证明自身技术的价值,在与OpenAI、谷歌等巨头的竞争中占据优势。
阿莫迪的内心开始挣扎。他知道为美军服务意味着什么。然而,面对着能让公司站稳脚跟的绝佳机会,阿莫迪最终选择了加入。
合作很快落地,Claude被成功集成进美国数据分析公司Palantir开发的军方“梅文智能系统”,运行在亚马逊网络服务(AWS)的GovCloud专属机密环境中,这是当时唯一同时满足前沿技术标准、并在国防部机密网络中实际部署的商用大语言模型。
2025年7月,双方正式签署一份价值2亿美元的原型合同,阿莫迪亲自拍板签字的那一刻,不知他是否意识到,Anthropic将被推向战争的深渊,走上一条不归路。
2026年1月,美军发动针对委内瑞拉总统马杜罗的突袭行动,Claude首次登上战场,承担起关键的情报分析任务。
它实时判读卫星传回的图像,快速分析战场态势,优化突袭路线与方案,帮助美军避开了委内瑞拉军队的防御部署,以零伤亡的代价,成功抓捕马杜罗。
得到了美军的认可,阿莫迪却深感不安。他清楚地记得,与五角大楼合作时,他特意划定了红线:
——禁止将Claude用于全自主致命武器的研发与使用,禁止用于对美国公民的大规模监控。
而根据五角大楼的备忘录,美军希望加入一项条款,允许其将Anthropic技术用于“任何合法用途”,这直接突破了Anthropic的使用政策,双方的谈判陷入僵局,矛盾从此埋下伏笔,逐渐升温。
阿莫迪开始打退堂鼓,他知道美军的行动不得人心,Anthropic的使用者以高学历人群为主,他们并不喜欢特朗普,Anthropic对美军的服务很可能引发用户的不满。
更何况,特朗普的任期后,Anthropic有可能引来民主党政府的追责。
于是,他拒绝了五角大楼提出的“无限制使用Claude”的要求,并希望停止那份价值2亿美元的合同。
五角大楼对阿莫迪的拒绝极为不满,认为Anthropic的行为“损害了美国的国家安全利益”,破坏了美军的作战部署。
根据国防部长赫格塞思的AI战略备忘录,五角大楼要求所有AI供应商移除“超出法律要求的限制”,即取消公司自行设定的安全防护措施。
2月24日,赫格塞思亲自召见阿莫迪,他明确告知对方,一旦Anthropic不配合,公司将被列入政府“供应链风险”黑名单。
这意味着,Anthropic将被美国政府封杀。所有与美国军方签有合同的企业,此后都不得在任何军事工作中使用Anthropic的产品,这对Anthropic而言,无疑是严重的打击。
2月26日,阿莫迪在Anthropic官方网站公开发文,他写道:
“即便是当今最先进、最强大的AI系统,其可靠性也不足以支撑完全自主武器的运作……我们不能昧着良心答应美军的要求”。
知道此事后,特朗普怒不可遏,阿莫迪的反应无疑激发了他在第一任期的回忆——硅谷长期以来对特朗普与MAGA群体的蔑视与不合作。他在“真实社交”平台上怒骂Anthropic:
由一群不懂现实世界的人运营的左翼疯子公司。
特朗普发出了禁令,所有联邦机构将立即停用Claude。在他看来,阿莫迪不想做的事,大把的AI公司抢着来做。
发文仅仅几小时后,两件极富有戏剧性的事发生了。
第一件事,是OpenAI就宣布与五角大楼达成合作,为美军提供AI技术支持。
第二件事,是美军发起了对伊朗的空袭。
2026年2月底,一场没有经过国会授权的战争打响了,美以联军正式发动对伊朗的“史诗怒火”行动。
最可笑的是,特朗普的禁令只是个双簧,美军并没有停用Claude。
禁令生效的同时,战争已经开始,美军早已对Claude产生了依赖,白宫也对此做出了解释,Claude想从美军中退役,至少需要6个月的时间。
《华盛顿邮报》则披露,美国正考虑强制征用Claude大模型,这意味着战争期间,无论Anthropic同意与否,Claude都必须为美军服务。
Claude被推向了战争的核心,从一款商用AI工具,彻底沦为杀人的帮凶。
就像那句老话:你能决定战争如何开始,却无法决定战争如何结束。
对深陷霍尔木茨海峡封锁战的美军如此,对于阿莫迪和他的Anthropic公司也是如此。
它被接入美军全球各司令部,全天候高速运转,承担着情报处理、目标识别、作战规划、战损推演等一系列关键任务,成为美军作战链条中不可或缺的一环。
这种“人机协同”的作战模式,彻底改写了战争的节奏与逻辑。
要知道,以前从发现目标到完成打击,需要72个小时,而在Claude的辅助下,这个周期被大幅压缩到几小时内,“发现即摧毁”不再是一句空洞的口号,而是实实在在的战场现实。
这无疑加强了美军的高科技斩首能力,却无法掩盖美军去工业化后,弹药匮乏,难以承受长期战争的弱点。
阿莫迪决定反抗。
3月9日,Anthropic在加州北区联邦法院提起诉讼,将包括国防部、财政部、商务部在内的18个联邦机构和包括国防部长在内的18位高官列为被告,指控其违法封杀Anthropic。
他要求法院发布初步禁令,阻止政府的封杀令在诉讼期间生效,并赔偿公司的经济损失。
这场官司涉及到美国的“国家安全”,被美国媒体称为“历史上与军事领域AI伦理相关的最大的法庭案件”。对Anthropic有利的是,案件已交由加州北区联邦法院的丽塔·林法官审理,她是由拜登总统于2022年提名的法官。
Anthropic并不无辜,就在他们高举“AI伦理”大旗,反抗美国政府封杀时,他自己也曾有过“双重标准”。
就在2月底,阿莫迪曾公开指控中国DeepSeek等三家AI企业,声称这些企业发动“工业级蒸馏攻击”,并遭到马斯克的嘲讽。
他们没想到的是,话音刚落,来的不是美国AI行业支援,而特朗普的封杀令,
普利策奖得主、国家安全记者斯宾塞·阿克曼曾尖锐地批评道:“当你收了末日博士的钱,给他制造零件时,你难道不知道他要造的就是末日机器人吗?”
美以对伊朗的军事行动还在继续,中东的硝烟尚未散尽,战斧导弹的呼啸声、无辜者的哭泣声,交织在一起,构成了一曲悲伤的战歌。
而Anthropic的悲歌,也在这场战争回响,它用自身的兴衰,撕开了一个残酷的真相:在霸权与战争面前,所谓的技术中立、伦理底线,或许只是一场自欺欺人的谎言。
而那些坚守初心的人,往往会成为强权博弈的牺牲品。
热门跟贴