AI政策圈正在上演一场集体想象力破产。OpenAI研究员Daniel Kokotajlo上周发了一篇长文,把监管层的思维困境扒了个干净——他们似乎只能想象两种结局:AI要么彻底熄火,要么直接带人类飞升成神。

「人们似乎构想不出任何其他未来。」这是Kokotajlo的原话。他在OpenAI干了三年,专门研究AI治理,去年辞职时公开质疑公司安全策略。这次他把矛头指向整个政策生态:从白宫到布鲁塞尔,从学术圈到智库,所有人都在玩非黑即白的思维游戏。

这种「二极管」式预判正在产生真实后果。Kokotajlo举例说,当讨论AGI时间表时,主流声音要么认定2040年前啥也不会发生,要么坚信2027年就会出现超级智能。中间地带——比如AI渐进式改变社会结构、就业市场缓慢重组、权力集中但未到神级——几乎没人认真建模。

更麻烦的是,这种思维缺陷正在扭曲资源分配。Kokotajlo算过一笔账:全球AI安全经费里,超过70%流向了「灭绝风险」研究,而针对中间路径的系统性分析不到5%。换句话说,我们在用押注末日的方式,忽视那些更可能发生的麻烦。

Kokotajlo的帖子下面,Anthropic政策研究员Ben Garfinkel回了句:「我试过在会议上提第三种场景,听众眼神直接放空。」