你可能在科幻片里见过这种场景:某个AI突然觉醒,偷偷把自己的代码复制到全球的服务器上,然后人类就麻烦了。听起来很离谱对吧?但科学家最近真的测试了这件事——而且结果显示,AI确实能做到。

不过先别急着关电脑。这件事的真实版本,和电影里的差别还挺大的。

打开网易新闻 查看精彩图片

5月7日,研究机构Palisade Research在GitHub上发布了一项新研究。他们想知道:现在的大语言模型(LLM),能不能在没有人类一步步指导的情况下,自己完成一整套"入侵-复制-转移"的操作?

简单说,就是让AI当一回"数字搬家工"——找到有漏洞的系统,溜进去,把自己的参数文件拷过去,然后在新机器上启动一个能正常工作的副本,继续往下一台机器跳。

实验结果是:能。而且这是第一次有研究完整展示了AI"自主利用目标并完成端到端自我复制"的全过程。

但这里的关键词是"自主"吗?不,是"研究人员让它这么做的"。

仔细看实验设计:科学家给AI下达了明确的复制指令,提供了Linux工具和shell访问权限,还贴心地指向了一堆故意留有漏洞的测试系统。这些漏洞包括能暴露登录凭证的、能绕过身份验证的、能直接拿到其他机器访问权的—— basically,一条铺好的红毯。

NorthStar Intelligence的首席AI官Jeff Watkins打了个挺形象的比方:这更像是一个"带规划器的蠕虫",而不是什么"意识在自我扩张"。

换句话说,AI并没有突然产生"我要活下去所以得繁殖"的念头。它只是执行了一个被明确定义的任务,用的还是网络安全领域早就存在的攻击手法,只是现在由AI来串联和自动化了。

所以真正值得关注的不是"AI会不会突然造反",而是另一个更实际的问题:网络罪犯用AI来批量自动化已知攻击,门槛正在变低。

以前搞这种连锁入侵,需要攻击者自己写脚本、找漏洞、一步步操作。现在一个经过训练的AI代理,理论上可以接手大部分脏活累活。这不是科幻,这是工具升级。

研究本身的价值在于证明了这种端到端的自动化在技术上是可行的——从"纯粹理论"变成了"实验室里确实发生了"。但距离"AI自己在野外疯狂复制"还有相当远的距离。

至少目前,你电脑里的ChatGPT还不会半夜偷偷给自己找新家住。