你正在写代码,Slack弹出一条消息:公司要接五角大楼的单子,你的模型可能用于军事目的。你会签字同意,还是加入那600多人的联名信?
这不是假设。谷歌员工正在经历这一切。
一封内部信的爆发
超过600名谷歌员工向CEO桑达尔·皮查伊发出公开信,要求拒绝任何军事用途的AI合作。信中的措辞相当直接:「我们搭建的技术正在被滥用,已经造成人员伤亡,国内外公民自由都受到威胁。」
这些员工的身份很特殊——他们是AI系统的直接建造者。信中写道:「作为从事AI工作的人,我们清楚这些系统会集中权力,也会犯错。」这种「 proximity 」( proximity 指近距离接触、邻近关系)带来的不是特权感,而是责任感:「我们有责任指出并阻止最不道德、最危险的使用方式。」
导火索是谷歌正在与五角大楼洽谈的合同。具体条款未公开,但员工们的担忧很明确:AI技术被用于「机密目的」。
行业裂痕:Anthropic先退了
这件事的背景是整个AI行业的立场分化。
今年3月,Anthropic CEO达里奥·阿莫迪(Dario Amodei)明确拒绝了五角大楼使用Claude模型的请求。他的顾虑很具体:可能被用于「大规模国内监控」和「完全自主武器」。结果?国防部长皮特·赫格塞斯(Pete Hegseth)直接把Anthropic列为「供应链风险」。
这个标签的分量不轻。被列入「供应链风险」意味着政府项目可能限制采购该公司的技术,对商业声誉也有打击。
但阿莫迪没松口。
OpenAI的选择则完全不同。Anthropic退出后,OpenAI迅速补位,与五角大楼签下合同。CEO山姆·奥特曼(Sam Altman)因此遭到内外夹击——员工不满,外部批评者也质疑其底线。
更讽刺的是,OpenAI最初的合同版本漏洞百出。条款里留下的空子,恰恰能让ChatGPT被用于Anthropic所担心的那些场景:监控、追踪、自主武器决策。后来合同被修正,明确排除了「蓄意追踪、监视或监控」用途,但这个过程本身就暴露了问题——如果不是内部压力,这些漏洞会不会直接生效?
谷歌的历史包袱
谷歌员工对军事合作如此敏感,不是没有原因。
2018年的「Maven项目」危机至今是硅谷劳工运动的标志性事件。当时谷歌与五角大楼合作开发无人机图像识别技术,引发4000多名员工联名抗议,十几人辞职。最终谷歌承诺不再续签Maven合同,并出台AI原则,禁止将技术用于「造成或可能导致伤害」的武器系统。
但那是一份公司层面的承诺,不是法律约束。现在新的五角大楼合同谈判启动,员工们发现历史可能重演。
公开信里有一句话值得细读:「Human lives are already being lost」(已经有人在丧命)。这不是对未来风险的预警,而是对现状的描述。AI技术已经被用于军事场景,而谷歌的工程师们发现自己亲手搭建的系统,可能正在参与这个过程。
技术人员的道德困境
这件事的核心矛盾很尖锐:当你写下一行代码时,你是否对最终用途负责?
谷歌员工的答案是「是」。他们认为「 proximity 」——与技术构建过程的近距离接触——创造了特殊责任。这不是抽象的伦理讨论,而是具体的职业困境:你优化了一个图像识别模型,它被用于医疗诊断,这是好事;但如果被用于无人机目标锁定,你还能保持中立吗?
AI系统的特性让这个问题更复杂。与传统软件不同,大语言模型和计算机视觉系统的「能力边界」是模糊的。同一个模型,既可以帮助分析卫星图像评估农作物产量,也可以用于识别军事目标。技术本身是中立的,但应用场景不是。
员工们的诉求也不是一刀切地拒绝所有政府合作。公开信强调的是「最 unethical 和最 dangerous 的使用方式」。问题是,谁来定义这个边界?公司管理层、政府合同条款、还是写代码的工程师?
商业逻辑 vs 伦理底线
从商业角度看,拒绝五角大楼合同代价明显。
美国政府是全球最大的科技采购方之一。AI公司若被贴上「不可靠」标签,失去的不仅是国防订单,还可能波及整个公共部门市场。Anthropic被定为「供应链风险」就是前车之鉴。
但接受合同的代价同样真实。人才流失、品牌损伤、内部动荡——2018年Maven项目后,谷歌花了很大力气重建员工信任。现在这份信任正在再次经受考验。
OpenAI的选择代表了另一条路径:先签合同,再修补条款。这种「先上车后补票」的策略在商业上更灵活,但伦理上更脆弱。修正后的合同排除了「蓄意监控」,但「非蓄意」的滥用呢?模型被集成到更大系统中,工程师还能追踪最终用途吗?
谷歌员工显然不想重蹈这个覆辙。他们的策略是前置干预:在合同签署前公开施压,把伦理争议摆到台面上。
行业规则的真空
整个事件暴露了一个结构性问题:AI军事应用的规则,现在基本靠公司自我约束。
国际层面,关于自主武器的谈判陷入僵局。联合国《特定常规武器公约》讨论多年,没有达成具有约束力的协议。美国国内,白宫的AI行政令主要关注安全和竞争,对军事用途语焉不详。
结果是,每家公司自己画红线。Anthropic画在「大规模监控」和「完全自主武器」;OpenAI最初画得模糊,后来收紧;谷歌2018年的AI原则至今有效,但执行细节不透明。
这种碎片化状态对技术人员尤其不利。当你加入一家公司时,你接受的可能是A版本的伦理准则,但商业压力可能推动管理层向B版本滑动。没有外部监管,员工的内部抗议成为唯一的制衡机制。
谷歌600人联名信的意义,或许不在于能否阻止这份合同,而在于证明这种制衡机制还在运转。它向整个行业传递信号:技术人员愿意为自己的代码承担道德责任,哪怕这意味着与雇主公开对立。
你的代码,谁的生命
这件事最终指向一个老问题,但有了新的紧迫性。
软件工程师曾经可以假装自己只是「搭积木的人」,不对建筑用途负责。但AI系统的规模化和自主性改变了这个等式。一个被部署到数百万无人机上的目标识别模型,其决策链条中,写代码的人比扣扳机的人更早介入因果序列。
谷歌员工的选择是直面这个责任。他们的公开信没有使用复杂的伦理术语,而是重复一个简单的事实:「Human lives are already being lost」。技术已经在造成伤亡,而他们还来得及阻止更多。
对于在科技行业工作的读者,这个问题没有标准答案。但沉默本身也是一种选择。当你下次在内部文档里看到一份政府合作备忘录时,值得问一句:这份合同的最终用户是谁?我的代码会被用于什么场景?如果答案让你不安,你是否有渠道表达,是否有同事愿意一起发声?
谷歌600人已经给出了他们的回应。你的呢?
热门跟贴