八年前,AlphaGo击败李世石已经让人类见识过AI的潜力。但Anthropic联合创始人最近抛出的一个设想,可能比那更疯狂:未来的AI系统或许能完全自主地"造出比自己更强的版本"。

这不是科幻小说的桥段。据Axios报道,Anthropic研究所于5月7日发布了一份名为《Anthropic研究所的重点关注领域》的论文,首次系统性地提出了"递归自我改进"(recursive self-improvement)这一概念。简单来说,就是让AI参与AI自身的研发与迭代。

打开网易新闻 查看精彩图片

论文中有一段描述格外引人注目:"你可以对它说:'做一个更好的你自己。'然后它就完全自主地去做了。"这种场景下,人类只需要下达一个模糊的指令,后续的设计、训练、优化全部由AI自行完成。Anthropic将其归类为"AI for AI R&D"的研究方向——光是这个标签,就足以让人停顿片刻。

这家公司并非凭空制造焦虑。两个月前,Anthropic悄然成立了这家研究所,初衷是应对"强大AI将给社会带来的最重大挑战"。作为几乎"无意中"打造出Mythos模型的公司——该模型能够发现几乎所有系统的隐藏漏洞,无论新旧——Anthropic似乎感到一种特殊的责任:在问题爆发前,先把盖子掀开。

论文的大部分内容其实是冷静的实证分析:谁在用AI、为什么用、人们如何看待这些工具。但"递归自我改进"这一节明显不同调。它描述的不是当下,而是一个"近期且令人担忧"的可能性。如果一家顶尖AI公司认为这事可能发生,市场很难不认真对待。

值得注意的是,Anthropic此时正面临双重压力。一方面,它在与SpaceX合作获取更多算力以扩张平台;另一方面,它又在公开警告"过于强大的AI"带来的威胁。这种"边加速边刹车"的姿态,本身就成了行业的一个缩影。

研究所的设立目标很明确:研究这些技术的真实世界影响,并"或许为避免最坏结果提供一些指导"。但论文也承认,对于递归自我改进的具体路径和时间表,目前更多是方向性的判断而非确定预测。

一个核心矛盾在于:如果AI真的能够自主迭代,那么传统的安全管控框架是否还适用?人类设定的护栏,会不会在下一代系统中就被绕过了?这些问题论文没有给出答案,但把问题摆上了台面。

从Mythos到递归自我改进,Anthropic的叙事轨迹清晰可见——它正在从一个"意外造出危险工具"的公司,转向主动定义风险话语的参与者。这种转变背后,既有商业考量,也有 genuine 的安全焦虑。但无论如何,当一家AI公司开始严肃讨论"AI造AI"的场景时,整个行业都需要重新校准自己的时间表。

论文最后落脚于"提供指导"而非"制造恐慌",但字里行间的紧迫感难以忽视。对于25-40岁的技术从业者来说,这份文件的价值或许不在于它给出了什么结论,而在于它确认了一件事:那个曾经遥远的"奇点"叙事,正在被主流玩家纳入近五年的规划视野。