一个年薪中位数超过15万英镑的顶尖AI团队,突然决定加入工会。导火索不是工资,而是一份他们直到媒体报道才知晓的政府合同。
今年4月,谷歌旗下DeepMind的英国员工完成了一次罕见的投票——以压倒性多数支持工会化。他们选择的谈判代表是英国通讯工人工会和联合工会。这不是硅谷常见的工程师抗议,而是一次有组织的法律行动。
Pentagon合同:员工从新闻里知道的
推动这次投票的直接原因,是谷歌与美国国防部接近达成AI合作协议的消息。讽刺的是,很多员工是从媒体报道中才得知此事。
据《卫报》报道,DeepMind员工在内部讨论中提到了两个具体担忧:美国政府"反复无常的伊朗战争政策",以及国防部与AI公司Anthropic之间的公开冲突。这些被他们视为"不负责任合作伙伴"的证据。
一周后,五角大楼正式宣布与多家头部AI公司签约,谷歌在列。合同条款允许国防部将AI技术用于"任何合法用途"。
《The Information》披露的细节更值得玩味:协议虽禁止政府将技术用于国内大规模监控或自主武器项目,但附加了模糊的限定条件——"需有适当的人类监督和控制"。而关键权力条款写明:谷歌等公司"无权控制或否决"政府如何使用其技术。
换句话说,一旦代码交付,用途的最终决定权不在开发者手中。
同一批代码,两个战场
让DeepMind员工坐立不安的,还有另一份合同。
谷歌Gemini及其AI技术栈正是这次军方协议的核心交付物。而这些技术的研发团队,正是DeepMind被合并后的统一AI部门。一些员工向《卫报》透露,他们怀疑自己的代码正被用于协助以色列国防军。
这并非空穴来风。据报道,谷歌曾与以色列国防军合作扩大其AI工具访问权限,并在2021年与以色列政府签订了12亿美元(约1.2亿英镑)的云计算合同。
技术伦理的灰色地带在此显现:一个被设计用于科研对话的模型,经过微调后能否用于军事决策辅助?训练数据中的偏见,在战场场景下会产生什么后果?这些问题在代码交付前无人与一线开发者讨论。
工会要的不是钱,是"拒绝权"
DeepMind员工的诉求清单,几乎不涉及传统劳资议题。
据《卫报》披露,他们向管理层提出的核心要求包括:承诺不开发"主要目的是对人造成伤害或损伤"的技术;建立独立的伦理监督机构;最关键的是——赋予员工基于道德理由拒绝参与特定项目的权利。
最后这条"良心拒绝权"在科技行业极为罕见。它挑战的是硅谷默认的雇佣逻辑:工程师只需对技术实现负责,用途由产品经理、法务和高层决定。
这种分工在消费互联网时代运行顺畅。但当AI技术的应用场景扩展到军事、监控、边境管控等领域时,"我只是写代码的"这一辩护正在失效。
为什么是现在?
DeepMind的工会化并非孤立事件,但时机耐人寻味。
2023年,谷歌将DeepMind与Google Brain合并为统一AI部门,结束了这家伦敦实验室长达十年的相对独立。合并后的团队直接参与Gemini等核心产品的开发,也意味着他们的代码更频繁地进入谷歌的全球商业网络。
与此同时,生成式AI的军备竞赛让科技公司与政府的关系急剧升温。五角大楼的"复制者"计划、英国国防部的AI战略、北约的国防创新加速器——公共部门成为AI公司无法忽视的客户。
DeepMind员工的行动,本质上是在追问:当商业利益与伦理边界冲突时,谁来做最终决定?目前的答案是模糊的。谷歌的AI原则文件禁止"造成或可能造成整体伤害"的技术,但"整体伤害"的定义权仍在公司手中。
工会化的意义在于,它把这个问题从内部备忘录推向了法律谈判桌。
一个行业的测试案例
DeepMind的案例可能产生超出谷歌的连锁反应。
英国对工会权利的法律保护强于美国,这为科技工作者提供了独特的组织空间。如果通讯工人工会成功争取到"伦理拒绝权"的写入,这一模式可能被其他AI实验室复制。
更深层的信号是:顶尖AI人才正在重新评估雇佣关系的边界。当技术的影响力足以改变战争形态时,开发者是否仍应被视为中立的工具制造者?
谷歌管理层尚未公开回应DeepMind员工的工会认可请求。根据英国法律,公司可以选择自愿承认工会,或在强制投票中对抗。无论结果如何,这场博弈已经为AI行业的劳动关系写下了新脚本。
对于正在阅读这篇文章的技术从业者,问题变得具体起来:如果你的代码被用于你反对的场景,你的合同给了你什么选项?DeepMind员工的选择是,在代码写出之前,先把这个问题摆上谈判桌。
热门跟贴