一份内部信正在硅谷引发连锁反应。约600名谷歌AI团队员工向CEO桑达尔·皮查伊发出警告:别把Gemini模型卖给五角大楼用于机密任务。这个数字接近谷歌AI核心研发人员的相当比例,而他们的诉求直指一个正在成形的行业困境——当大模型公司争相拿下政府合同时,"不作恶"的边界在哪里?

从"不作恶"到"合法即可":谷歌AI原则的悄然改写

打开网易新闻 查看精彩图片

2018年的那场风波,谷歌老员工应该还记得。

当时Maven项目曝光——谷歌AI被用于分析无人机监控画面,引发数千员工联名抗议。公司最终承诺退出该项目,并在AI原则中写下明确禁令:不开发"可能造成重大伤害"的技术,不将AI用于武器或大规模监控。

这套原则曾被视为科技巨头的道德标杆。但去年,措辞变了。

新版原则删除了"不追求"这类绝对化表述,代之以更灵活的风险评估框架。员工们在最新联名信中写道:"现在的决定将对谷歌的声誉、商业地位和全球角色造成不可挽回的损害。"

这种措辞变化并非孤例。同一时期,OpenAI也修改了其使用政策,删除了禁止军事应用的条款。行业正在集体转向,而谷歌员工试图踩下刹车。

Anthropic的200万美元教训:合同措辞的致命细节

要理解谷歌员工为何紧盯"合法用途"这四个字,得看看Anthropic的遭遇。

这家由OpenAI前研究高管创立的公司,曾与五角大楼洽谈一份200万美元的合同。谈判破裂的直接原因,正是国防部要求的"所有合法用途"条款。Anthropic拒绝让自己的Claude系统被如此宽泛地授权使用。

结果?国防部将其列入"供应链风险"名单。这不是简单的合作终止,而是带有惩罚性质的行政标记,可能影响该公司与其他政府机构的业务往来。

「作为从事AI工作的人,我们知道这些系统会集中权力,而且确实会出错。」联名信中的这句话,指向一个技术现实:大模型的"幻觉"问题尚未解决,将其用于机密情报分析或军事决策,容错空间极低。

OpenAI的应对策略值得对比。在与五角大楼重新谈判时,该公司加入了具体限制条款:AI不得用于"对美国公民或国民的蓄意追踪、监视或监控,包括通过获取或使用商业渠道获得的个人或可识别信息"。

这是一种折中——既拿下政府订单,又试图划定红线。但谷歌员工认为这不够。他们在信中明确主张:唯一确保技术不被滥用的方式,是"完全拒绝任何机密工作负载"。

皮查伊的算盘:To G市场的战略卡位

员工们的担忧背后,是谷歌正在推进的具体谈判。

据近期报道,谷歌正与国防部就Gemini模型在机密环境中的应用进行磋商。若协议达成,国防部将获得"所有合法用途"的授权——正是Anthropic拒绝签署的那种条款。

对谷歌而言,这笔生意的象征意义可能大于财务回报。200万美元对Anthropic已是敏感数字,而谷歌的体量意味着其政府合同规模可能远超此数。更重要的是,这是Gemini在高端企业市场的关键背书。

大模型竞争已进入第二阶段。第一阶段是消费端和开发者的跑马圈地,第二阶段则是政府、金融、医疗等强监管领域的资质争夺。五角大楼的认证,相当于AI安全性的最高级别信用背书。

但员工们看到了另一面。联名信写道:「我们感到,由于接近这项技术,我们有责任指出并防止其最不道德和危险的用途。」这是一种技术精英的自我定位——他们认为自己对代码的理解,赋予其超越商业利益的判断义务。

这种张力在谷歌历史上反复出现。2018年Maven项目的抗议者中,就有后来成为AI伦理团队核心的成员。此次联名信的签名者"大多来自谷歌AI系统相关岗位",意味着抗议来自技术核心而非边缘部门。

行业分水岭:AI公司的"军工复合体"时刻

三件事正在同时发生,勾勒出行业的集体转向。

OpenAI修改军事禁令、Anthropic拒签200万合同、谷歌推进五角大楼谈判——三家头部公司的不同选择,实际上是在回答同一个问题:AI公司的边界在哪里?

传统软件时代,这个问题的答案相对清晰。微软向军方出售办公软件,AWS承接情报机构的云服务,争议有限。但生成式AI的不同在于其通用性和不可预测性——同一套模型可用于撰写邮件,也可用于分析卫星图像、生成虚假信息或辅助目标识别。

「人类生命已经在丧失,公民自由在国内外都因我们参与构建的技术滥用而受到威胁。」联名信中的这句话,将技术人员的责任与具体后果直接挂钩。这不是抽象的伦理讨论,而是对应用场景的实质性担忧。

美国政府的采购策略也在变化。将Anthropic列入"供应链风险"名单,显示出一种施压手段:不配合的供应商可能面临更广泛的排除。这种行政工具的使用,正在重塑AI公司与政府谈判的筹码结构。

对谷歌员工而言,此刻的抗争具有特殊意义。2018年的胜利曾证明内部抗议可以改变公司决策,但那次胜利也伴随着代价——谷歌退出了有前景的国防科技市场,而竞争对手亚马逊和微软继续深耕。此次原则修订和谈判推进,某种程度上是对那次退让的修正。

技术人员的权力边界:从代码到政策的距离

联名信揭示了一个深层矛盾:AI系统的构建者是否对其应用方式拥有发言权?

谷歌员工的论点建立在"接近性"之上——因为他们最了解技术,所以最有责任防止滥用。但这种逻辑与公司的商业决策机制并不兼容。皮查伊需要回应的不仅是600名员工,还有董事会、股东和华盛顿的关系网络。

更复杂的在于"机密"二字。一旦进入机密环境,连谷歌自身也难以监控模型的具体用途。员工们要求的"拒绝机密工作负载",实质上是要求公司放弃一个无法审计的市场。

这与OpenAI的策略形成对照。后者试图通过合同条款保留部分控制权,尽管这种控制在政府客户的实际执行中可能流于形式。两种路径的分歧,反映了AI治理的不同哲学:绝对回避 vs. 条件性参与。

Anthropic的选择提供了第三种参照。200万美元的合同金额相对其融资规模微不足道,但公司仍选择对抗而非妥协,并承受了被列入风险名单的后果。这种"原则优先"的姿态,正在硅谷的AI安全社群中获得认同。

谷歌的处境更为艰难。其搜索和云业务的政府依赖度远高于初创公司,完全退出国防市场既不现实也不符合股东利益。员工们的诉求因此更具挑战性——他们要求的是在核心利益领域的退让。

未完成的谈判与悬置的判断

截至发稿,谷歌与国防部的谈判状态尚不明确。联名信的公开可能改变谈判动态,也可能被管理层视为可管理的内部噪音。

但信号已经释放。600名AI核心员工的集体行动,表明2018年的那种组织能量并未消散。对于正在评估AI供应商的政府客户而言,这也是一份关于谷歌内部风险的参考材料。

更广泛的行业影响在于先例效应。如果谷歌最终签署了"所有合法用途"条款,将为其他AI公司树立参照;如果谈判破裂或条款修改,则会强化Anthropic路径的正当性。

技术史的一个规律是:新兴技术的军事应用往往早于其民用成熟,而争议通常在伤害显现后才集中爆发。谷歌员工试图打破这个循环,在部署之前划定边界。他们的成功或失败,将定义这一代AI公司与国家权力之间的关系形态。

皮查伊的回复尚未公开。但联名信中的警告已经留下记录:「现在做出错误决定,将对谷歌的声誉、商业和世界角色造成不可挽回的损害。」这不是威胁,而是基于2018年经验的判断——那次撤退的代价,公司花了六年才试图修正;而新的错误,可能没有修正的机会。