当你的同事公开拒绝了一笔生意,你会跟进抢单,还是保持沉默?谷歌选了前者。

美国国防部想要无限制使用人工智能,Anthropic(人类学公司)拒绝了。现在谷歌接下了这单生意,950名员工正在内部抗议。

打开网易新闻 查看精彩图片

「供应风险」标签与一场官司

事情要从Anthropic的硬刚说起。

五角大楼向这家AI公司提出条件:开放全部权限,用于机密网络。Anthropic的回应是设置护栏——禁止用于国内大规模监控,禁止用于自主武器。

国防部没接受。他们将Anthropic标记为「供应风险」,这个标签通常留给外国对手。双方现在对簿公堂,上个月法官批准了一项临时禁令,在案件审理期间暂停该认定。

这是硅谷与华盛顿之间罕见的公开决裂。

谷歌、OpenAI、xAI的跟进逻辑

Anthropic的「损失」成了竞争对手的机会。

OpenAI迅速签约。xAI紧随其后。现在谷歌成为第三家。

据《华尔街日报》报道,谷歌的协议中包含一些措辞,称「不打算」将AI用于国内大规模监控或自主武器——与OpenAI的合同语言类似。但这些条款是否具有法律约束力或执行力,目前尚不清楚。

三家公司选择了相似的路径:保留书面姿态,同时开放实际权限。

950人联名信的内部张力

谷歌员工并非沉默。

一封内部公开信已获得950人签名,要求公司效仿Anthropic,不向国防部出售缺乏护栏的AI。谷歌未回应置评请求。

这个数字值得注意。它不构成多数,但足以在内部形成可见的压力。在科技行业,员工 activism 曾推动过政策改变——2018年谷歌退出Maven项目(军事无人机图像识别)就是先例。

但这一次,管理层选择了不同的方向。

合同措辞的模糊地带

「不打算」与「禁止」之间,差距有多大?

法律约束力存疑,这是《华尔街日报》报道中明确指出的。合同语言可以是一种姿态,也可以是一种漏洞。在机密网络环境中,外部监督本就困难,执行机制更成问题。

Anthropic的坚持在于前置约束:先画红线,再谈合作。谷歌、OpenAI、xAI的模式是:先签约,再声明「不打算」越线。

两种策略,两种风险计算。

行业格局的隐性转向

这件事的真正影响在于示范效应。

当一家AI公司因拒绝军方条件而被标记为「供应风险」,其他厂商会重新评估自己的谈判筹码。Anthropic选择了原则优先,代价是诉讼和标签;竞争对手选择了市场准入,代价是内部异议和声誉风险。

更深层的问题是:AI公司的「护栏」承诺,在国防合同中到底有多重?当商业利益与伦理声明冲突时,哪一方会妥协?

谷歌的950名员工正在等待答案。