打开网易新闻 查看精彩图片

末日时钟,Doomsday Clock。

曼哈顿计划结束后,1947年《原子科学家公报》设立了一款正在倒计时的时钟,并希望用“指针越靠近午夜,人类文明距离毁灭就越接近”的方式,来呼吁大家关注核战争、生物技术等一系列能威胁人类存亡的概念。

末日时钟即将“敲响”

在设立之初,运营者曾因原子弹的顺利起爆,把末日时钟的指针定格在了“23时53分”来警示大家。但遗憾的是,随着部分地区局势紧张、生物技术崛起、气候变化加剧等一系列因素的影响,末日时钟在过去的时间里曾被多次拨动。以至于当时间来到2025年时,它距离所谓的“毁灭时刻”仅有89秒。

打开网易新闻 查看精彩图片

但...随着AI技术的进化加速、巴菲特等名人的连番警告,末日时钟在2026年1月27日这天再次被拨快了4秒。

“这次一次性拨快 4 秒是幅度很大的调整。85 秒是有史以来最接近午夜的一次。”来自芝加哥大学的物理学教授丹尼尔·霍尔茨坦言,调整指针的根本目的是希望让大家正视威胁、在潜在的风险面前团结起来。毕竟和“智械危机”这种游戏剧情走进现实相比,尽快设立人工智能国际准则才是符合所有人利益的选项。

正如巴菲特所言,人工智能真正的威胁在于未知。即使是那些顶级的AI研究员、企业,也没办法指明这项技术最终将走向何方。而这种源于技术空白、规则空白的不确定性,本身就暗藏着极大的风险。

“像哥伦布航海时,你可以说‘我不知道自己会到哪里’,因为你随时还能掉头回去。但现在不同了,精灵已经被放出瓶子。”

在巴菲特看来,AI技术失控的风险已经近在眼前。眼下世界各地都出现了“音视频冒充他人行骗”的故事。当所有人都知道如何利用技术作恶时,AI在“造福人类”和“伤害人类”这两个领域的潜力也将完全相等。

硅谷大佬和他们的末日保险

互联网上有这样一句话:“只有那些研发F1赛车的人,才是第一批知道它能跑多快的人。”

同样的,当我们把这句话里的“F1赛车”换成“AI”后,便会发现在AI进化的前沿阵地硅谷里,准备“末日地堡”似乎已经成了一种流行。

相关文章指出,除扎克伯格(Meta CEO)、山姆·阿尔特曼(Open AI CEO)、马文·廖(前雅虎高管)曾表示自己修建了地堡或准备武器、应急技能来应对可能的末日威胁外。著名投资人雷德·霍夫曼也表示约50%的硅谷富豪在美国境内、海外购置了庇护所,以此充当自己的“末日保险”。

打开网易新闻 查看精彩图片

毕竟对这些硅谷大佬而言,AI末日真正的威胁不仅在于“AI”本身,还有无数因AI陷入困境的普通人。倘若人工智能反攻人类这天真的出现,那么这些曾收集数据、开发模型的企业家、研究员,也将因此被众人敌视。

不过,就像一件衣服有正反两面一样。世上有因AI末日焦虑不已的人,就同样会有认为AI末日是杞人忧天的人。

2025年5月28日,兰德公司科学家迈克尔·弗米尔在《科学美国人》杂志上系统性分析了AI末日降临的可能性。他认为,AI消灭人类共有3个可能的路径,即核战争、病原体攻击、气候变化。

但问题在于,人类的适应能力太强、数量太多而且在地球上分布太广。即使AI黑入了全球9个拥核国家的核武库,这些核弹也无法彻底摧毁地球的耕种体系,并让放射性烟尘、核冬天带来灭绝性事件。

至于病毒、气候剧变,则分别需要AI开发出一种兼具传染性、致死性的超级病毒(假设AI病毒的致死率高达99.99%,全球仍会有超80万人幸存);彻底摧毁地球的自我修复功能,让人类即使迁移到两极也无法生存。

AI真的会带来世界末日吗

事实上,迈克尔·弗米尔认为AI想毁灭人类、摧毁人类文明。就必须同时满足以下几点:

1 脱离人类管控,制定可行的世界末日计划。

2 隐藏自己的行为,欺骗人类为其提供病毒生产线、电力资源、发射系统等物理意义上的“毁灭工具”。

3 在行动初期,它必须掐灭人类的反击力量或者在暗中继续执行计划,以此抗衡人类的自救本能。

4 当人类社会初步崩溃时,AI必须在脱离人类资源支持的前提下,继续有条不紊地执行灭绝计划,并系统性搜查、消灭幸存者。

打开网易新闻 查看精彩图片

从现有的技术体系看,AI想同时拥有上述四种能力几乎是不可能的。所以他们也乐观的认为在2100年以前,AI导致人类灭绝的概率将始终处于10%以下。

更何况在马斯克等人的联合呼吁下,目前各路学者也都投入到了“缰绳系统”的开发中。如人称“AI教父”的约书亚・本希奥就成立了非营利性组织LawZero来开发Scientist AI。在应用层面,Scientist AI的核心发力方向是监测当前正在运行的各个智能体,并从中揪出那些欺骗人类、虚假工作的“坏模型”。

具体而言,Scientist AI自带一个评分系统,它会根据各个智能体的表现来评估其行为的有效性、危害性。倘若被监测模型的行为超过了风险阈值、低分阈值,那么它就将在系统层面阻止相关模型的下一步行动。

所以,比起把“末日时钟”当成“玛雅人与2012”般的末日预言,还不如把它当成一个督促人类开发缰绳系统的提醒。毕竟只有彻底掌握、了解工具,才能在未来避免被工具所伤。

参考

新华网:核威胁、气候变化等因素使“末日之钟”指针拨快4秒

界面新闻:巴菲特:AI的危险不亚于核武器,即便AI领袖也不清楚将走向何方

IT之家:“AI 教父”本希奥宣布开发“诚信”系统,防范智能体欺骗人类

湖南日报:兰德公司科学家分析 人工智能会带来“人类末日”吗?

虎嗅:硅谷大佬,沉迷末日