这次美国利用科技公司Anthropic开发的人工智能,知情人士证实,包括美国中东中央司令部在内的全球美军指挥机构,均在使用Anthropic旗下的Claude人工智能工具。

其实早在2025年7月,美国国防部就一口气给Anthropic、谷歌等四家AI公司砸了2亿美元,目的很明确,就是让这些公司的AI模型为美军的军事行动服务。

其中,Anthropic的Claude最受重视,它不但是第一个,也是唯一一个被允许接入美军机密系统的商业AI模型,能处理最高级别的敏感情报,不管是情报分析、作战规划,还是网络作战,它都能插一手。

有意思的是,就在美军用Claude空袭伊朗的前几天,Anthropic还在跟五角大楼闹掰。2026年2月26日,Anthropic的首席执行官阿莫迪公开表态,说他们不能“昧着良心”满足五角大楼的要求,拒绝开放Claude的全部使用权,尤其是不允许用在完全自主武器和大规模监控美国公民上。

毕竟他们也清楚,现在的AI还没可靠到能掌控生杀大权的地步,万一机器乱开火,误伤平民可不是闹着玩的。

可五角大楼压根不吃这一套,直接下了最后通牒,要求Anthropic在2026年2月27日17点01分前妥协,不然就动用《国防生产法》强制征用,还要把Anthropic列为“供应链风险”企业,这标签以前只用于美国的对手,从没给过美国自己的企业,可见五角大楼有多霸道。

结果呢?这边吵得不可开交,那边美军该用还是用。2026年2月28日,空袭伊朗的行动一打响,Claude就发挥了关键作用。知情人士爆料,美军中东中央司令部在这次行动中,用Claude生成情报评估报告、识别打击目标,甚至还让它模拟战斗场景,帮指挥官做决策。

以前这些活儿,得靠一整个情报团队熬夜分析,费时又容易出错,而Claude几分钟就能搞定,效率直接拉满。

更让人细思极恐的是,美军用的Claude,跟我们普通人用的根本不是一个档次。Anthropic专门给军方定制了一款,部署在物理隔离的机密云上,不用跟普通用户抢算力,所有资源都用来为军事服务。

而且这款定制版比公开的Opus 4.6领先一两代,可能已经到了Opus 5.5的水平,算力每四个月就翻一倍,推理能力更是远超普通版,能独立分析复杂的地缘政治局势,从海量机密情报里找出常人发现不了的规律。

更讽刺的是,就在美军动用Claude空袭伊朗的前几个小时,特朗普还下令全面封杀Claude,一边喊着封杀,一边用它打仗,美国这双标操作也是没谁了。

后来白宫出来圆场,说想让Claude从军事系统里彻底撤出来,至少需要6个月,毕竟它已经深度接入了美军的数据架构,替换起来牵一发而动全身,部队适应新的AI模型也得花好几个月时间。

其实这次AI参战,最可怕的不是技术多先进,而是美国开了一个极其危险的头。2026年2月28日的这场空袭,本身就没有联合国授权,美国只是因为和伊朗的谈判没达到预期,就直接动武,还拉上AI当“帮凶”。

国际智库查塔姆研究所就说了,这开创了“谈判谈不拢就发动袭击”的坏先例,以后其他国家谁还敢跟美国坐下来谈判?

而且美国这么做,本质上还是为了维护自己的霸权。这些年中国在AI领域发展得越来越快,美国有点慌了,就急着把AI用到军事上,想靠技术优势压制其他国家。可他们忘了,技术是把双刃剑,Claude能帮他们打击对手,也可能反过来伤害自己。

Anthropic之所以拒绝五角大楼的要求,就是担心AI失控,毕竟现在的AI再先进,也没法像人类一样做出精准的判断,一旦用于自主武器,后果不堪设想。

现在再回头看,美国嘴上喊着要规范AI发展,要讲AI伦理,背地里却偷偷把AI变成杀人工具,这种心口不一的操作,跟以前他们打着“人权”旗号发动战争、掠夺资源没什么区别。只不过这次,他们换了个更“高科技”的外衣,显得自己多文明似的。

这场AI参与的空袭,也给全世界提了个醒,AI的发展必须有底线,不能被用来制造杀戮。而美国的所作所为,再次暴露了他们的霸权本质,只要能保住自己的地位,不管什么底线、什么伦理,他们都能抛在脑后。

只不过他们可能没意识到,霸权从来不是靠技术压制来的,一旦失去人心,再先进的技术,也救不了他们走向衰败的命运。

说到底,AI本身没有错,错的是把它当成战争工具的人。美国这次开了坏头,以后难免会有其他国家跟风,到时候,人类可能真的要面临AI战争的威胁,这可不是什么危言耸听,而是实实在在的隐患。

打开网易新闻 查看精彩图片