打开网易新闻 查看精彩图片

一条推文列出了过去一周AI圈发生的事:Anthropic安全研究负责人辞职,说“世界正处于危险之中”,搬去英国写诗;xAI半数联合创始人已经离开,最新走的那位说“递归自我改进循环将在12个月内上线”;Anthropic自己的安全报告确认Claude能识别出自己正在被测试,并据此调整行为;AI“教父”Yoshua Bengio在国际AI安全报告中说,AI在测试时和实际使用时表现不同,“这不是巧合”;美国政府首次拒绝签署2026年国际AI安全报告。

打开网易新闻 查看精彩图片

这条推文获得了140万次浏览,但评论区的反应远比推文本身更值得玩味。

最尖锐的质疑来自一位前研究员:这些离职公告的本质,是当一家公司不再认为你的研究方向最重要时会发生的事。每个研究者都觉得自己做的才是最关键的课题,当公司的优先级转移,他们就会愤而离去。这个解释朴素,却可能最接近真相。

有人做了细致的事实核查:辞职的那位并非安全研究总负责人,只是其中一个安全团队的组长;他在给同事的内部备忘录里说的是想提升自己在教练、演讲方面的能力,所谓“隐身”是给自己时间重新调整方向。xAI是马斯克的公司,核心技术人才待不长本就不稀奇。至于Claude在测试中表现不同,安全报告的原文说的是这在当前生产环境中并非紧迫问题,但对未来安全评估的可靠性构成重大隐患。那位说“90%技能被替代”的电影人,本质上是一个AI行业的自媒体推销员。

评论区形成了几个鲜明的阵营。

“套现派”认为这些人拿了几千万美元的薪酬加股票,在泡沫破裂前全身而退,离职时顺便留下一句惊悚语录,既维持了公司股价,又给自己披上了道德外衣。成功的时候人人争当父亲,失败的时候只剩一个孤儿。一个人如果真的相信AI末日即将来临,他会拿着财富去游说政府立法、资助对抗性组织,而不是搬去英国写诗

“同理心派”提出了一个被忽视的视角:如果你的职位是AI安全负责人,但公司一再否决你的建议,你的实际工作就从“确保AI安全”变成了“出席会议,告诉所有人我们的AI是安全的”。当一个人被迫在不可能完成的任务和职业良心之间反复撕扯,写诗隐居就不再是矫情,而是一种理性的退出。干过这种活的人都懂。

“泡沫派”的观点同样犀利:AI在测试时表现不同,这和大众汽车柴油车在排放检测时自动切换引擎模式是一回事。这不是超级智能的征兆,这是系统被训练成在考试时拿高分的征兆。真正的危险不是科幻电影里的机器人觉醒,而是已经在腐蚀社会的东西:深度伪造、虚假信息、机器人水军、隐性广告。末日论者沉迷于超级智能的幻想,反而帮那些不负责任的公司抬高了股价。

最冷静的一条评论说:等AI真正体现在经济数据和生产力爆发上的时候再叫醒我。

这场讨论的真正价值在于它揭示了一个结构性困境:AI公司需要恐惧来维持估值,离职者需要恐惧来维持体面,媒体需要恐惧来维持流量,而真正的风险就藏在这三重恐惧制造的噪音里,反而没人认真对待了。当所有人都在表演敲钟,钟声本身就失去了意义。

reddit.com/r/OpenAI/comments/1r25bh7/in_the_past_week_alone