600多名谷歌员工联名反对,CEO皮查伊还是签了字。这份修正案让美国军方可以把Gemini用于机密任务——而且谷歌无权否决。

员工在怕什么

打开网易新闻 查看精彩图片

「拒绝机密工作是确保谷歌人工智能不被滥用的唯一途径。」

这是超过600名谷歌员工写给皮查伊信中的核心论点。他们的担忧并非空穴来风:协议条款明确要求,谷歌必须「应政府要求协助调整人工智能安全设置和过滤机制」。

换句话说,军方拿到的不只是模型使用权,还有一把能绕过安全限制的钥匙。

员工们真正反对的,是「任何合法政府用途」这七个字的模糊空间。什么算合法?谁来定义?协议没给谷歌审核权,只给配合义务。

谷歌在赌什么

这不是谷歌第一次进军国防AI。此前已有协议允许Gemini处理非机密政府数据,本次是向机密层级扩展。

谷歌的公开声明试图划两条红线:不用于国内大规模监控,不用于无人类监督的自主武器。但声明同时承认——对合法政府作战决策,谷歌「没有任何控制或否决权」。

这种「有限承诺」的策略很微妙:既回应舆论压力,又不实质约束客户。毕竟五角大楼的合同金额和战略价值,远超员工抗议的声量。

更深层看,这是谷歌与OpenAI、微软、亚马逊的军备竞赛。The Information报道指出,多家顶尖AI实验室和云服务商已加入「广泛联盟」,为国家安全提供基础设施。缺席者可能意味着出局。

「合法」的空心化

争议焦点落在协议措辞上。「任何合法政府用途」并非谷歌首创——The Information特别提到,这一表述在其他AI公司与五角大楼的谈判中已引发争议。

问题在于:合法性的解释权完全在政府手中。当模型用于情报分析、网络战或目标识别时,谷歌既无法事前知情,也不能事后叫停。

员工要求的「拒绝机密工作」,本质上是想把伦理审查嵌入商业决策。但修正案的方向恰恰相反:把谷歌的技术团队变成可调用的技术支持单元。

我的判断

这场对抗暴露了AI巨头的一个结构性困境:安全团队的伦理设计,终究要让位于政府客户的实战需求。

谷歌的声明是精心计算的风险对冲——用两条抽象红线换取公众信任,用「无否决权」条款换取合同落地。但当「调整安全设置」成为合同义务,那些红线是否还牢固,已经不由谷歌说了算。

更值得观察的是行业连锁反应。一旦「任何合法用途」成为国防AI合同的标准模板,其他厂商将面临同样的选择题:是坚持技术主权,还是接受客户主导?

对科技从业者来说,这意味着一个冷酷的现实:你写的安全过滤器,可能在某个政府请求下被临时关闭——而你甚至不会收到通知。