桑达尔·皮查伊的邮箱里躺着一封来自600多名同事的公开信。同一天,谷歌与五角大楼的AI合作协议正式落地。
这不是巧合,是刻意的并行。谷歌选择用行动回应质疑——不是撤回,而是推进。
员工在信里写了什么
「我们拒绝让我们的AI系统用于机密工作负载。」
这是信中的核心诉求。600多名员工在致CEO的公开信中明确要求谷歌切断与军方的AI合作。他们的担忧很具体:致命性自主武器、大规模监控,以及更隐蔽的风险——机密项目意味着员工可能根本不知道自己的技术被用在哪里。
「我们希望看到AI造福人类,而不是以不人道或极具破坏性的方式被使用。」
这封信的措辞带着技术人员的典型特征:承认 proximity( proximity 指他们与技术的近距离接触)带来的责任,同时承认信息不透明带来的无力感。他们既觉得自己有义务阻止「最不道德和最危险的用途」,又清醒地意识到「机密工作可能在员工不知情或无法阻止的情况下进行」。
这种矛盾构成了抗议的底色:不是简单的反战情绪,而是对技术失控的深层焦虑。
协议条款的精确边界
据The Information报道,这份协议允许五角大楼将谷歌AI用于「任何合法的政府目的」,包括敏感的军事应用。但文本中设置了两个明确的排除项:
——不用于国内大规模监控
——不用于缺乏适当人类监督的自主武器
然而关键条款在第三处:谷歌无权控制或否决合法的政府作战决策。同时,谷歌需应政府要求协助调整安全设置和过滤条件。
这意味着什么?技术层面的「护栏」存在,但决策层面的「刹车」被拆除。谷歌可以声明自己的AI不用于某些场景,却无法阻止五角大楼在合法框架内自行决定用途。
谷歌发言人对CNET的回应试图平衡这种张力:公司仍坚持AI不应用于国内大规模监控或缺乏人类监督的自主武器,而提供商业模型的API访问是「支持国家安全的负责任方式」。五角大楼则拒绝置评。
历史回声:Maven项目的遗产
2018年,数千名谷歌员工抗议Project Maven——一个利用AI分析无人机影像的五角大楼项目。抗议规模之大迫使谷歌选择不续约。
那次事件成为硅谷科技伦理的标志性案例。它证明了员工动员的有效性,也暴露了科技公司内部的价值撕裂:一部分工程师相信技术中立,另一部分则坚持责任前置。
七年后的今天,场景重演但结局不同。谷歌没有退缩,反而扩大了合作范围——从单一项目升级为系统性协议,从公开竞争转向机密领域。
这种转变不是突然发生的。2024年,谷歌从其AI原则中删除了关键条款:不再承诺「不追求可能造成整体伤害的技术、武器、某些监控技术或违反广泛接受的人权和国际法原则的系统」。
今年2月,谷歌DeepMind CEO德米斯·哈萨比斯与高级副总裁詹姆斯·马尼卡在一篇博客文章中阐述了新的立场:「民主国家应在AI发展中领先」,企业与政府应合作构建「保护人民、促进全球增长、支持国家安全」的AI。
「保护人民」与「支持国家安全」被并置,暗示了优先级重构。
行业格局:三巨头的机密竞赛
谷歌并非孤例。OpenAI和xAI也已与五角大楼达成类似的机密AI协议。三家公司的技术路径各异,但战略选择趋同:争夺政府合同,切入国防市场。
这种趋同背后有清晰的商业逻辑。生成式AI的训练和推理成本极高,政府合同提供稳定的现金流和算力需求预测。更重要的是,国防应用往往涉及最高级别的安全认证,一旦通过,技术壁垒转化为竞争护城河。
但风险同样显著。军事AI的「双用途」特性——同一技术可民用可军用——使得企业难以控制最终用途。协议中的排除条款是法律文本,但技术本身的流动性意味着边界可能被穿透。
员工的担忧正在于此:当代码进入机密黑箱,开发者失去了追踪能力。他们无法验证自己的模型是否被用于无人机目标识别、情报分析或决策支持系统——这些场景都落在「合法政府目的」的宽泛定义内。
技术伦理的结构性困境
谷歌员工的公开信揭示了一个更深层的悖论:最接近技术的人,恰恰对技术最不信任。
这种不信任不是源于技术缺陷,而是源于系统不透明。机密工作的本质决定了开发者与部署者分离,设计者与应用者隔离。当AI模型被封装为API服务,技术责任也随之碎片化。
谷歌的回应试图用「标准商业实践」来消解这种焦虑:我们只是提供工具,如何使用由客户决定。但这种说法在AI领域格外脆弱——与传统软件不同,大语言模型的输出具有概率性和情境依赖性,「使用方式」与「模型行为」难以截然分开。
更微妙的是「安全设置调整」条款。当政府要求放宽过滤条件时,谷歌的协助是否构成共同责任?协议文本没有回答这个问题。
民主国家叙事的技术政治
哈萨比斯和马尼卡的博客文章提供了一个关键框架:「民主国家应在AI发展中领先」。这句话将技术竞争地缘政治化,把企业决策包装为价值选择。
这种叙事的功能在于化解内部异议。当AI合作被定义为「民主vs专制」的技术军备竞赛,反对声音容易被边缘化为「幼稚的理想主义」或「对国家安全的不负责任」。2018年Maven抗议的成功,部分源于当时缺乏这种替代叙事;2025年的谷歌显然学会了主动建构话语。
但「民主国家领先」的命题本身值得追问。它假设技术主导权与政治制度之间存在必然关联,却回避了更具体的问题:谁的民主?哪种安全?当600名员工的声音被系统性忽视,「民主」是否包括企业内部的民主?
谷歌没有回答。它选择用协议签署来终结讨论,而非用对话来消解分歧。
这场冲突会走向哪里
短期内,员工抗议难以改变既定事实。2018年的先例表明,大规模动员可以影响单一项目,但难以逆转战略转向。谷歌已将AI原则从「不伤害」调整为「负责任地支持国家安全」,这是框架层面的重构。
中期来看,竞争压力将强化这一趋势。OpenAI和xAI的同类协议意味着,即使谷歌退出,替代供应者 readily available(随时可用)。在资本市场和地缘政治的双重压力下,「不合作」选项的空间被压缩。
长期变量在于监管。目前美国缺乏针对军事AI应用的系统性立法,依赖企业自律和政府合同条款。但随着AI能力的跃升,这种松散架构可能面临挑战——无论是来自国会山的听证,还是来自国际层面的军控谈判。
对于25-40岁的科技从业者,这件事的真正启示在于:技术中立性是一种正在消逝的幻觉。当你的模型被部署到未知场景,「我只是写代码的」不再构成有效的道德豁免。谷歌员工的选择是直面这种困境,而非逃避——即使他们的声音暂时被压制。
如果你也在构建可能被滥用的系统,现在就该开始思考:你的「不伤害」承诺,止于代码提交,还是延伸到部署之后?当雇主的选择与你的价值观冲突,你有哪些选项——离开、抗议、还是内部游说?
这些问题没有标准答案。但回避它们,本身就是一种答案。
热门跟贴