事情发展到这一步,多少有点魔幻了。

前两天还是Anthropic一家初创公司单挑美国国防部,起诉五角大楼把自己列入“供应链风险”黑名单。

今天,微软突然跳出来了!不是看热闹,是亲自下场,向法院提交了一份“法庭之友意见书”,明确表态支持Anthropic,要求法院暂时阻止国防部的禁令。

等等,微软不是Anthropic的大金主吗?投了那么多钱,这时候站出来说话,好像也正常。

但你再想想:微软是美国国防部的顶级承包商,跟五角大楼签着几百亿的云合同。现在它为了一个AI初创公司,公开跟自己的大客户唱对台戏?

这事没那么简单。

打开网易新闻 查看精彩图片

一、冲突的根源:AI的“伦理红线”VS军方的“合法用途”

故事要从Anthropic这家公司的“怪脾气”说起。

市面上做AI大模型的,OpenAI也好、谷歌也好,对军方合作的态度基本都是暧昧的——嘴上说着“不能用于致命武器”,身体却很诚实,合同照签、技术照给。但Anthropic不一样,它是真的在较真。

Anthropic有个明确的规定:它的AI模型Claude,不能用于两件事——一是对美国公民的大规模监控,二是一旦激活就无需人类参与、自动选择和打击目标的自主武器系统。

你可能会说:这不挺正常的吗?伦理要求而已。

问题是,五角大楼不这么看。

国防部的逻辑很直接:我们花钱买你的技术,就是要用在国防上。你给我设一堆限制,今天说这个不行,明天说那个不许,万一战场上需要,你突然给我来个“伦理红线”,我这仗还打不打了?

于是,冲突爆发了。

特朗普政府2月27日下令,所有联邦机构停止使用Anthropic的产品。五角大楼更狠,3月5日正式把Anthropic列为“供应链风险”实体——这个标签以前只用来对付外国公司,比如华为。然后给了自己6个月的过渡期,慢慢淘汰Anthropic的技术。

Anthropic直接炸了:你这是报复!是滥用权力!

3月9日,Anthropic起诉美国国防部。3月10日,微软提交意见书支持Anthropic。同一天,OpenAI和谷歌的37名研究人员和工程师也提交了意见书,站队Anthropic。

一场AI公司vs美国国防部的官司,正式打响。

打开网易新闻 查看精彩图片

二、微软为什么要趟这浑水?

现在问题来了:微软又不是什么理想主义小清新,它是美国军方的老合作伙伴,Azure拿了多少国防合同数都数不过来。它为什么要跳出来帮Anthropic说话?

表面理由很充分:微软自己的业务受影响。

更关键的是时间差。

五角大楼给了自己6个月的过渡期来淘汰Anthropic产品,但给那些使用Anthropic服务的国防承包商——比如微软——一毛钱缓冲期都没给。也就是说,政府可以慢慢来,企业必须立刻改。

微软的原话是:如果不发临时限制令,我们和其他科技公司就得“立即修改为国防部提供的现有产品和合同配置”,“可能在关键时期对美军作战人员造成不利影响”。

翻译一下:你们政府打架,凭什么让我们企业买单?

打开网易新闻 查看精彩图片

微软在意见书里说了这么一段话:

“临时限制令将争取时间,在保护美军获得先进技术的同时,确保AI不被用于对美国公民的大规模监控,也不被用于无需人类控制的自主战争。”

这段话很有意思。

它把两件事绑在了一起:一个是保护美军的技术优势,另一个是防止AI被滥用。微软在暗示——如果五角大楼一意孤行,把那些有伦理底线的AI公司都逼走,最后剩下的是什么?是那些什么都肯干的供应商。

到时候,AI军备竞赛是跑起来了,但谁来踩刹车?

谷歌首席科学家杰夫·迪恩和其他37名OpenAI、谷歌的研究人员,也在他们提交的意见书里表达了类似的担忧。这些人不是反战的理想主义者,他们是真正懂技术的人。他们知道,一旦AI武器脱离了人类的控制,会发生什么。

Anthropic其实并不反对AI用于军事,它只是觉得现在的技术还不够“精确”,不能保证不出错。它在诉状里说得更直白:我们不是不让军方用AI,我们只是要求在技术成熟之前,保持人的控制。

这个立场,到底是在阻碍国防,还是在保护未来?

打开网易新闻 查看精彩图片

微软为什么要跳反?

商业利益受损是直接原因,但更深层的原因是这场官司打的不只是Anthropic一家的命运,而是未来AI公司与政府之间的关系模式。

如果五角大楼赢了,以后它可以随意用“供应链风险”这个帽子,扣在任何不听话的美国公司头上。你说一句话不合我意?供应链风险。你给我设个使用限制?供应链风险。我想用你的技术你不给?供应链风险。

到时候,企业还怎么保持独立?还怎么守住底线?

如果Anthropic赢了,那它就给所有AI公司争来了一个空间。在配合国家安全的同时,保留说不的权利。你可以用我的技术,但不能让我帮着搞大规模监控;你可以用AI辅助作战,但不能让AI自己决定杀谁。

这不是反战,这是负责。

吴沈括教授说,这一案件揭开了所谓“技术中立”的遮羞布。当技术发展到一定程度,当AI真的有可能决定生死的时候,企业不能再假装我只管造,不管用。

AI时代的政企关系,正在被重新定义。