2025年10月26日,一项由中美两国人工智能领域顶尖专家和技术领袖联名发起的呼吁在全球科技界引发震动。超过3000名顶级学者、企业家和公众人物共同签署声明,要求在科学界达成“安全可控开发超级智能的广泛共识”之前,暂停“超级智能”的研发。这一倡议由非营利组织“未来生命研究所”发起,迅速获得包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查德·布兰森、经济学家达龙·阿西莫格鲁等重量级人物的支持。中国学界的重要代表,如中国科学院院士姚期智、清华大学讲席教授张亚勤、清华大学苏世民书院院长薛澜等也纷纷加入联署。

所谓“超级智能”,指的是在所有认知任务上超越人类水平的人工智能形态。尽管目前大多数企业研发的仍属于通用人工智能(AGI),但超级智能所预示的能力已引发广泛忧虑。声明中指出,多家领先的AI企业正竞相投入超级智能的研发,这一趋势可能带来“人类在经济上被取代与边缘化、自由与公民权利受损、尊严与控制权丧失,乃至国家安全风险,甚至可能带来人类灭绝的极端威胁”。

打开网易新闻 查看精彩图片

当前,超级智能已成为AI领域的热词。从埃隆·马斯克的xAI到萨姆·奥特曼领导的OpenAI,再到Meta将其大语言模型部门直接命名为“Meta超级智能实验室”,全球科技巨头纷纷加速布局。然而,这一领域的快速发展也引发了科技界的激烈争论。一方认为AI是推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。

值得注意的是,即便是身处AI研发前沿的领军人物,如马斯克和奥特曼,过去也曾对超级智能的风险发出警告。奥特曼在2015年的一篇博客中写道:“发展超人类机器智能可能是对人类持续存在的最大威胁。”中国科学院计算技术研究所研究员曾毅指出,尽管目前绝大多数企业研发的仍属通用人工智能工具,但超级智能所带来的风险目前在科学上仍无法有效控制。他特别提到,Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。

此次联名呼吁的核心在于,超级智能的发展速度可能远超人类社会的适应能力,而现有的安全机制和伦理框架尚未成熟。倡议者认为,在缺乏坚实证据确保超级智能安全可控的情况下,贸然推进研发可能带来不可逆的灾难性后果。他们建议,全球科技界应优先建立统一的监管标准,确保AI的发展始终以人类福祉为核心。

然而,反对者则认为,暂停研发可能阻碍技术进步,使其他国家在AI竞争中占据优势。他们认为,风险固然存在,但通过技术创新和伦理约束,人类完全有能力驾驭超级智能的发展方向。

这场争论的背后,是AI技术发展的根本性问题:如何在创新与安全之间找到平衡?超级智能的潜在收益无疑是巨大的,从医疗突破到气候治理,再到经济效率的提升,都可能因AI的进步而实现。然而,如果缺乏有效的安全措施,超级智能也可能成为人类历史上最大的威胁之一。

目前,全球各国对AI监管的态度仍存在分歧。欧盟已通过《人工智能法案》,试图通过立法规范高风险AI应用;美国则倾向于行业自律,鼓励企业在发展中自我约束;中国则在推动AI发展的同时,强调安全可控的原则。此次全球顶级专家的联名呼吁,或许将成为推动国际社会形成共识的重要契机。

未来,超级智能的发展路径将取决于科技界、政策制定者和社会公众的共同努力。在确保安全的前提下,人类或许能够解锁AI的全部潜力,避免其成为失控的力量。但无论如何,此次呼吁已经向世界传递了一个明确的信号:超级智能的研发不能盲目推进,人类必须首先回答“如何确保它不会反噬我们”这一根本问题。