如果2028年底之前,真的出现一台AI能从头到尾设计自己的接班人,中间不需要人类插手——你觉得概率有多大?
Jack Clark,前OpenAI政策主管、现Anthropic联合创始人,最近给了一个数字:60%以上。
不是科幻,是他翻完arXiv、bioRxiv、NBER一堆论文,加上盯着前沿公司实际放出来的产品,得出的 reluctant conclusion(不情愿的结论)。 reluctant 是因为"implications are so large that I feel dwarfed by them"——后果太大,大到让他觉得自己很渺小。
这篇文章就是来拆解:他凭什么这么悲观?以及如果成真,我们到底在面临什么。
一、代码能力正在逼近"奇点"
AI是软件,软件是代码。这个链条决定了:AI能写代码,就能造AI。
Clark列了一堆公开数据。2022年,AI在编程竞赛里还像新手;2024年,已经能解国际信息学奥赛(IOI)金牌难度的题。不是死记硬背,是在限时、带资源约束的真实竞赛环境里。
更关键的是"端到端"——不是人类写框架、AI填细节,而是AI自己定方向、自己调参数、自己debug。
他特别提到一个观察:前沿公司已经在内部用AI写AI训练代码。不是辅助,是替代。这些不会公开发论文,但产品放出来了,行为骗不了人。
二、研究创意的自动化,比工程更难——但也在发生
写代码是"执行已知",做研究是"发现未知"。后者一直被认为人类护城河。
Clark的反驳很直接:看看arXiv的投稿趋势。AI辅助生成的数学证明、实验设计、假设生成,增速曲线和当年GPT-3之后的文本生成几乎一样。只是这次没人大张旗鼓宣传,因为学术界对"AI科学家"还有抵触。
他的判断是:如果scaling law(规模定律)继续成立,模型会在"提出新研究路径"这件事上变得有创造力。不是模仿人类思路,是生成人类没想过的思路。
这步一旦跨过去,闭环就完成了:AI写代码造AI → 新AI提出更好的架构 → 更好的AI写更好的代码。
三、2026年不会爆发,但"概念验证"可能就在明年
Clark把时间线拆得很细。
2026年,他不指望看到"无人参与的完整AI研发"。太贵,太复杂,前沿模型是人类团队极端努力的产物。
但"非前沿模型的端到端自我训练",12-24个月内出demo,他觉得概率很高。一个小模型,从架构搜索到训练调参到评估,全流程自动化。
这个demo本身可能没实用价值,但象征意义极大:它证明闭环技术上可行。剩下的只是scaling问题——用更多算力、更大模型复现同样的流程。
他原话是:"we could see an example of a 'model end-to-end trains its successor' within a year or two"。注意是could,不是will。但60%的置信度,已经足够让"不可能"变成"很可能"。
四、为什么这件事难消化
Clark反复说reluctant。不是兴奋,是沉重。
他的担忧分两层。一层是预测难度:"cross a Rubicon into a nearly-impossible-to-forecast future"。一旦AI能自主迭代,技术曲线的可预测性崩溃。不是快多少的问题,是方向本身变得不可知。
另一层是社会准备度:"I'm not sure society is ready for the kinds of changes implied"。他没展开,但暗示了治理、经济、安全框架的滞后。技术可能2028年到位,配套机制可能2038年还没影。
这也是他写这篇文章的目的:不是给出答案,是先把证据摊开来。2026年他会花大部分时间"working through the implications"——现在只是列清单阶段。
五、一个值得盯的指标
Clark没给投资指南,但埋了一个观察点:看前沿公司的产品发布节奏,而不是论文。
论文有延迟,有筛选,有学术政治。但产品放出来就是放出来了。如果某个季度,三家以上前沿公司同时推出"AI辅助研发"工具,且功能明显跃迁,那就是信号。
另一个指标更隐蔽:arXiv上"AI for AI"论文的作者署名变化。如果开始出现大量单一作者、或机构不明的投稿,可能意味着自动化工具已经在改变研究生产关系。
这两个指标都不需要内部消息,公开信息足够判断。
Clark的60%概率不是终点,是起点。它把"AI自我复制"从科幻范畴拽进了规划范畴——不是要不要准备的问题,是怎么准备的问题。对于做技术路线图的从业者,这意味着2025-2027年的决策窗口期,可能比想象中窄得多。
热门跟贴