凌晨4点,一瓶燃烧弹飞向科技圈最有权势者的卧室窗户。警方从嫌疑人口袋里搜出的不是遗书,而是一份三页宣言——上面写满对"人类灭绝"的倒计时。

这不是电影剧本。上周五金门大桥还未醒来时,28岁的Daniel Moreno-Gama allegedly(据指控)完成了这场针对OpenAI CEO Sam Altman的袭击。而更令人不安的是后续发现:酒店房间里藏着9毫米手枪,口袋里装着其他科技高管的名单与住址。这不是冲动犯罪,而是一场预谋已久的"审判"。

打开网易新闻 查看精彩图片

从燃烧弹到"神谕":一份宣言的完整还原

让我们按时间线拆解这个事件。

【袭击前夜】Moreno-Gama入住酒店。客房清洁人员事后发现:一把上膛手枪,一台笔记本电脑。武器与工具已就位。

【凌晨行动】他驱车前往Altman位于旧金山的豪宅,点燃燃烧弹投掷。火未造成重大伤亡,但意图明确——这不是警告,是处决。

【清晨被捕】警方在OpenAI总部所在的Mission District将其截获。搜身时,三页手写宣言露面。

宣言内容被《旧金山标准报》部分披露。核心逻辑令人脊背发凉:Altman的生命被定义为"正常未来"与"终结者式 dystopia(反乌托邦)"之间的唯一屏障。其中一句直接写道:「若你奇迹般存活,我将视之为神谕,命你自我救赎。」

这不是反科技者的胡言乱语。宣言还列出了其他CEO与投资人的姓名地址——一张狩猎清单。

PauseAI的切割与困境

调查很快挖出一个组织关联:Moreno-Gama是PauseAI Discord服务器的成员。

PauseAI是什么?这是一个国际倡导组织,核心诉求是"暂停训练最强大通用人工智能系统"。他们的官方立场明确反对暴力,发言人向《旧金山标准报》声明:「PauseAI存在是因为我们相信每个人都应安全,包括Sam Altman及其家人。暴力与我们的立场完全相悖。」

但切割容易,切割背后的张力很难。

PauseAI的底层逻辑与Moreno-Gama的宣言共享同一套认知框架:高级AI = 存在性风险 = 需要极端干预。组织选择议会游说、公开信、学术倡议;个体选择燃烧弹和手枪。差异只在手段烈度,不在根本判断。

这让我想到一个产品视角的观察:当某个"用户痛点"被验证到足够痛,总会出现愿意支付极端"成本"的极端用户。PauseAI吸引了理性担忧者,也必然吸引非理性行动者——这是同一需求光谱的两端。

48小时内的第二起袭击

事件还有后续。

燃烧弹袭击几天后,Altman住宅再次遇袭。两名嫌疑人因"过失 discharge(发射) firearm(枪械)"被捕——他们 allegedly(据指控)实施了 drive-by shooting(驾车枪击)。

关键差异:第二起事件的动机尚不明确。可能是模仿犯罪,可能是独立事件,也可能只是旧金山街头暴力的随机波及。但时间点的密集性制造了强烈的叙事引力:攻击Altman正在成为某种"可选项"。

两起事件,三种武器(燃烧弹、手枪、驾车射击),同一目标。这是巧合还是趋势?警方尚未给出关联结论,但科技安保团队已经在重新计算风险模型。

Altman的"脆弱性悖论"

这里有一个反直觉的产品洞察。

Altman是AI产业最具可见度的面孔——OpenAI的ChatGPT在两个月内突破1亿用户,是有史以来增长最快的消费级应用。但个人影响力与组织安全之间存在结构性张力:你越成为符号,越容易被符号化攻击。

Moreno-Gama的宣言将Altman定义为"唯一屏障"——这不是对他个人的认知,而是对他所代表位置的认知。无论OpenAI的实际技术路线如何,Altman已经被投射为"AI加速主义"的人格化身。

这种投射是危险的。它意味着攻击者不需要理解Transformer架构或对齐(alignment)研究,只需要相信一个叙事:这个人 = 人类灭绝的开关。

《旧金山标准报》同期还披露了一个细节:Altman的前同事评价他"几乎不会写代码,且误解基础机器学习概念"。这则报道的并置耐人寻味——在公众认知中,他是AI之神;在同行审视中,他是产品经理型CEO。两种形象的张力,恰恰放大了他的符号价值:你不需要真的理解技术,就能成为技术恐惧/崇拜的投射对象。

从边缘到主流:AI恐惧的"产品化"路径

让我们把视角拉远。

2023年,PauseAI从边缘运动进入主流视野——他们参与了英国AI安全峰会的周边活动,获得了部分政界人士背书。同年,"AI存在性风险"从科幻论坛话题变成国会听证会的正式议题。

这个"产品"的增长曲线很典型:早期采用者(技术哲学家、有效利他主义运动成员)→ 媒体放大(《终结者》式叙事永远有流量)→ 政策窗口(监管焦虑)→ 大众渗透(ChatGPT让"AI"成为 household word( household 用语))。

Moreno-Gama出现在这个曲线的哪个位置?很难简单归类。他不是组织化的政治行动者,也不是随机暴力犯罪者。他更像一个"极端用户案例"——当产品的核心卖点("AI可能灭绝人类")被推向极致时,自然产生的边缘行为。

PauseAI的官方声明试图建立防火墙:我们与暴力无关。但产品运营的经验告诉我们:你无法控制用户如何使用你的产品。一个被设计用来"提高安全意识"的信息架构,必然会被部分人解读为"行动号召"。

安保升级与"开放"承诺的冲突

事件对OpenAI的直接影响是可预测的:Altman的个人安保将显著升级,公司高层的出行模式会调整,公开露面将减少。

但这与OpenAI的品牌承诺存在摩擦。

OpenAI的原始使命包含"开放"——尽管这个承诺在过去几年已被大幅修正(从开源到API封闭,再到与微软的深度绑定)。Altman的个人风格也是高曝光型的:世界巡演式演讲,国会作证,与各国领导人会面。这种可见度是战略选择,既是政策游说需要,也是人才招聘和品牌建设的工具。

现在,这个策略需要重新计算ROI(投资回报率)。当物理安全风险超过传播收益,"开放"的边界在哪里?

更深层的问题是:AI安全讨论本身是否会因此"寒蝉化"?如果表达担忧被关联到暴力行为,理性批评的空间会不会收缩?反过来,如果安全倡导者被迫不断切割极端分子,他们的议程设置能力会不会被削弱?

技术史的暴力脚本

这不是科技领袖第一次遭遇物理威胁。

生物技术领域,转基因作物研究者曾面对实验室破坏和人身威胁。核能历史上,科学家与工程师长期生活在抗议活动的阴影下。甚至计算机产业早期,也有针对IBM的炸弹袭击(尽管动机多为无政府主义而非技术恐惧)。

但AI的特殊性在于:攻击者的恐惧不是针对已发生的伤害,而是针对预测中的未来伤害。Moreno-Gama的行动是基于"如果继续发展,将会灭绝"的预期,而非"已经造成污染/失业/健康损害"的经验。

这使得回应变得困难。你无法用数据反驳一个关于未来的断言,只能用不同的未来叙事来竞争。而"人类灭绝"在情感冲击力上天然占优——这是进化塑造的认知偏误,我们对存在性威胁的敏感度远高于渐进式改善。

当"对齐"成为生死议题

最后,回到产品视角的核心问题。

AI产业正在经历一场"对齐"(alignment)——让AI系统的目标与人类价值观一致的紧迫性被反复强调。OpenAI专门成立了"超级对齐"团队(尽管该团队后来经历动荡),行业会议的安全议题占比持续上升。

但Moreno-Gama事件揭示了一个被忽视的维度:对齐不仅是技术问题,也是政治问题、传播问题、甚至安保问题。你如何向一个已经确信"AI将灭绝人类"的人证明你在认真对待安全?你的技术论文、你的政策白皮书、你的国会证词——所有这些"产品功能"在他眼中可能都是延迟策略。

PauseAI的发言人说"每个人都应安全,包括Sam Altman"。这是一个伦理正确的立场,但也是一个产品定位的困境:当你的核心用户群中包含认为"阻止AI发展值得任何代价"的人时,"反对暴力"的声明能走多远?

燃烧弹袭击后的第七天,OpenAI发布了新的模型能力更新。产品迭代继续,仿佛什么都没发生。但那个凌晨的火焰和口袋里的宣言,已经永久改变了叙事背景——AI安全不再是会议室里的抽象辩论,它有了气味、温度和具体的地址。

当技术恐惧找到肉身出口,我们准备好应对下一个"极端用户"了吗?