打开网易新闻 查看精彩图片

新智元报道

编辑:艾伦

【新智元导读】奥特曼豪宅遭纵火,揭开 AI 狂飙背后的信任塌陷。《纽约客》长文曝光核心圈对其「不可信」的长期质疑。当颠覆性技术被权力膨胀的领袖掌控,我们真正恐惧的不再是失控的 AI,而是毫无制度约束的造物主。

美国西部时间 4 月 10 日凌晨,旧金山一处豪宅外墙被燃烧装置击中,火势很快被控制,没有造成人员伤亡。

房主是 Sam Altman。

打开网易新闻 查看精彩图片

几个小时后,警方又在 OpenAI 总部附近控制了一名威胁纵火的男子,公开信息显示,两起事件被认为存在关联。

拓展阅读:刚刚,奥特曼家被炸了!

这条新闻的冲击力,并不只来自暴力本身,更刺眼的是它所处的位置。

一个被视作 AI 浪潮中心人物的人,家门口突然起火。

技术、资本、权力、公众焦虑,原本已经纠缠得很紧的几条线,在这一刻被硬生生拽到了一起,火苗不大,象征意味却大得惊人。

Sam Altman 随后发了一篇长文,还公开了一张家人照片。

打开网易新闻 查看精彩图片

https://x.com/sama/status/2042738954550603884

打开网易新闻 查看精彩图片

Sam Altman 拍摄的他的丈夫和女儿

https://blog.samaltman.com/

文里有一句话,他说自己低估了文字和叙事的力量。

他还说,AGI 已经出现了某种魔戒效应,真正让人疯狂的,往往不是技术本身,而是掌控技术的欲望。

这段回应在网上传播得很快,也很容易打动人。

家人、安全、极化、失控,这些词天然带着情绪重量,谁都能感受到那股寒意。

可问题也恰恰出在这里,当一个事件已经走到了燃烧瓶这一步,外界真正关心的,早就不只是情绪安抚了,大家更想知道的是,为什么围绕 AI 的情绪会恶化到这种程度,为什么 Sam Altman 会成为那个最醒目的靶心。

顺着这个问题往下找,几乎绕不开几天前 The New Yorker 发出的那篇长文,《Sam Altman May Control Our Future—Can He Be Trusted?》(山姆·奥特曼可能掌控着我们的未来——他值得信任吗?)。

打开网易新闻 查看精彩图片

https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted

这篇报道很长,信息量也很大,真正值得重视的地方,而在于它把过去几年围绕 Sam Altman 的那些零散怀疑,第一次像拼图一样拼出了轮廓。

从 2023 年董事会政变,到 Ilya Sutskever 的秘密备忘录,再到多位前高管、前研究员、前董事会成员对其诚信与安全承诺的质疑,这些年一直若隐若现的东西,被集中摆到了台面上。

打开网易新闻 查看精彩图片

Ilya Sutskever

报道最抓人的一句话,来自 Sutskever 对董事会成员的评价。他说,Sam 不该是那个把手放在按钮上的人。

因为 OpenAI 从创立那一天起,给自己的设定就和普通硅谷公司不一样。

它说自己做的是可能改变文明走向的技术,于是必须采用不同的治理结构,必须把全人类利益置于公司利益之上,必须由一个足够可靠的人来掌舵。

话说到这个份上,外界审视的标准自然也会变。

你不能一边把自己放进曼哈顿计划、超级智能、文明责任这些宏大叙事里,一边又希望公众用看普通创业公司的标准来看你。

这就是 Sam Altman 眼下最大的困境。

围绕他的争议,从来都不只是大家喜不喜欢他,或者认不认同 OpenAI 的商业路线。

更深的一层,是很多最靠近 OpenAI 核心的人,越来越怀疑这个人到底值不值得信任。

报道里有很多细节,单拎出来看,未必都是致命级别的大事,有的是对外表述和内部事实不一致,有的是安全审批与产品上线节奏之间的缝隙,有的是向不同对象做出不同承诺,有的是商业扩张时对原有原则的弹性解释。

单看一件,好像都能被解释成高速增长期的混乱,或者顶级创业者惯有的强势与变通。

可这些事一件接一件地叠起来,感觉就完全不一样了。

问题慢慢就不是某个具体决策了,而是 Sam Altman 处理真相的方式:他从来不说假话。他只是永远在说一种,你当时听着像承诺、事后看又只是描述的话。

是为了推进一件事先把人说服,至于承诺能兑现多少,以后再看。

很多人对 Sam Altman 的不安,显然不是把他想象成某种科幻反派,更像是觉得他太擅长在每个场景里,给每一类人送上他们最想听的话。

这种能力在硅谷常常会被叫做领导力。

放到 AI 行业,它就会带上一层更危险的颜色。

因为 AI 公司卖的东西,本来就高度抽象。

它卖的是一个还没到来的未来,一个普通人很难验证、监管者也常常跟不上的未来。

它可以对投资人讲万亿市场,对政府讲国家竞争,对公众讲技术普惠,对员工讲人类使命,对研究员讲安全优先。

这几套话之间未必完全冲突,甚至每一套都可能含有真实成分,可当它们被压缩到同一个人身上时,外界很难分辨,哪些是信念,哪些是策略,哪些又只是为了让下一步更顺利。

AI 圈知名批评家 Gary Marcus 直接在 Sam Altman 回应自己遭遇袭击的推文下方留言:你一边宣称自己在为所有人的繁荣负责,一边又愿意靠近大规模监控,训练数据争议迟迟说不清,对产品责任问题也不断拉扯,那这些道德宣言还剩多少说服力。

打开网易新闻 查看精彩图片

https://x.com/GaryMarcus/status/2042773316021424207

这话确实很刺耳,但它戳到了一块核心地带。

今天围绕 AI 的争论,早已过了单纯讨论模型能力和产品体验的阶段。

真正的撕裂点,是谁来决定这项技术该怎样进入社会,谁来承担它出问题时的代价,谁又能在一边高喊安全、一边继续加速的时候,还保有公众信任。

Sam Altman 在那篇回应里强调,AI 必须民主化,权力不能过度集中,未来不能由少数实验室决定。

这些话单独看,没有太大问题,甚至可以说很动听。

可尴尬也正在这里,过去几年 OpenAI 展现出来的轨迹,恰恰是另一套现实。

公司越来越像一家巨型平台,资源越来越集中,安全团队的位置越来越边缘,和军方、政府、主权资本、基础设施项目的绑定越来越深,最初那种带着理想主义色彩的组织设定,也被一轮轮现实压力改写得面目模糊。

这就形成了一种很奇怪的断裂感。

一边是在说,不能让任何人独占魔戒

另一边是在做,全行业都在争着把魔戒拿到自己手里。

而在这场争夺里,Sam Altman 之所以格外特殊,不只是因为 OpenAI 跑得快,还因为他可能是这一代科技领袖里,最会把扩张语言和道德语言揉在一起的人之一。

安全、监管、民主、普惠、国家利益、创业雄心,这些原本彼此拉扯的词,在他那里经常会被组织成一套几乎无缝的叙事。

听上去很完整,也正因如此,更难被轻易反驳。

这也是 The New Yorker 那篇稿子真正让人不安的地方。

它没有抛出一个一锤定音的惊天黑料,没有拿出某种足以立刻封死讨论的铁证。它呈现的是一种长期累积的观感,很多最早相信 OpenAI 使命的人,后来一点点失去了信任。

安全承诺会被调整,治理结构会被稀释,监管姿态会随着政治风向改变,立场会随着竞争环境迅速切换,曾经用来约束权力的那些东西,到了关键节点,总能被重新解释一遍。

这种故事,在商业史里其实并不陌生。

可 AI 把它放大了。

因为别的行业,失信带来的后果通常还比较局部,顶多是财务问题、市场问题、品牌问题。

AI 不一样,它连接的是基础设施、知识生产、国家机器、战争系统、劳动市场,甚至是人对现实的判断能力。

一个掌握这种技术的人,如果总能让不同群体暂时放心,又总能在真正需要被约束的时候滑出去,那种风险不再只是企业治理层面的麻烦,而会变成整个社会的麻烦。

回到这次纵火事件,最该警惕的地方也正在这里。

向别人家里扔燃烧瓶,当然是赤裸裸的暴力,没有任何洗白空间。

可与此同时,外界对 Sam Altman、对 OpenAI、对整个 AI 产业的怀疑,也绝不能被轻飘飘地塞回「请大家冷静」这种表态里。

暴力必须被谴责,质疑同样必须被正视,这两件事可以同时成立,而且本来就该同时成立。

否则,事情只会朝两个方向继续滑。

一个方向是犬儒,反正谁上都一样,规则只是摆设,理想只是包装。

另一个方向是极端,既然说理没用,那就开始上手段。

前者会耗掉社会的信任,后者会直接烧掉社会的底线。

眼下发生在 Sam Altman 家门口的这团火,看起来像是个体失控,往深处看,更像是信任塌陷后的一个危险信号。

很多人直到今天还愿意相信,AI 行业最大的矛盾,是加速派和安全派之争,是技术乐观主义和技术悲观主义之争。

这个说法当然不算错,但它多少有点停留在表层。

再往下一层看,真正的争议可能只有一句话,掌握巨大技术力量的人,到底愿不愿意被制度约束。

如果答案总是模糊的,问题就会越来越大。

公众真正缺的,可能从来都不是更多愿景演讲,也不是更华丽的未来蓝图,而是更硬的约束、更透明的记录、更完整的问责机制。

谁来定义安全,谁来决定上线节奏,谁来处理军方合作,谁来裁定利益冲突,谁又能在承诺和现实出现裂缝时被真正追问,这些问题都比任何一篇充满情绪张力的创始人长文更重要。

The New Yorker 那篇文章之所以有杀伤力,也正因为它把讨论往这个方向扳了一下。

它不再满足于围观一个明星 CEO 的人格魅力,也不再沉迷于硅谷叙事里那种复杂又迷人的创始人神话。

它追问的是,假如这个人手里握着可能改变世界的技术,社会到底该用什么标准来审视他。

这个标准显然不能低。

甚至应该高得多。

因为 OpenAI 当年就是这么要求自己的。

它用最宏大的语言为自己争取了最特殊的位置,也就必须接受最苛刻的检验。

现在回头看,那些让它显得与众不同的承诺,很多都已经在商业竞争与地缘政治的高压下松动了。剩下还没松掉的部分,也正在接受越来越强的现实拉扯。

于是,问题重新回到最初那团火上。

火已经灭了,真正的危险却没有随着消防水柱一起散掉。

它留在了更难处理的地方,留在公众对 AI 巨头的怀疑里,留在行业内部不断外溢的裂痕里,也留在一个越来越尖锐的问题里,Sam Altman 反复宣称自己不想独占魔戒,可过去几年所有围绕他的争议,又都在把人们推向另一个判断:大家担心的大家担心的是,当权力、资本、国家机器和未来叙事同时汇集到一个人身上时,还有没有东西能真正拦住他。

参考资料:

https://www.newyorker.com/magazine/2026/04/13/sam-altman-may-control-our-future-can-he-be-trusted

https://blog.samaltman.com/