10月22日,未来生命研究所(FLI)的一封联名信像一枚深水炸弹,投入全球科技界——超过3000人签名,800名科技领袖,14位图灵奖得主,3位诺贝尔奖得主,以及英国王妃梅根、特朗普前顾问班农等“跨界组合”共同呼吁:在科学界普遍认定“超级智能”可控、安全并获得公众广泛支持之前,暂停其进一步发展。这是人类历史上首次针对“超级智能”的“全球暂停键”,也是AI风险议题从学术圈走向公共治理的“分水岭时刻”。
打开百度APP畅享高清图片
一、“超级智能”:从科幻到实验室的“50年倒计时”
所谓“超级智能”,是指在所有核心认知任务上全面超越人类的人工智能形式。图灵奖得主约书亚·本吉奥在签名视频中警告:“一旦AI目标函数与人类利益错位,后果将是不可逆的系统性风险。”北京前瞻人工智能安全与治理研究院院长曾毅更给出“50年倒计时”:“如果以50年为限,超级智能一定会到来,但世界尚未准备好。”
二、“3000人签名”:从硅谷到白宫的“跨界联盟”
签名名单横跨科技、政治、娱乐三界:
- 科技界:AI教父杰弗里·辛顿、苹果联合创始人沃兹尼亚克、深度学习三巨头之一本吉奥;
- 政界:前美国国家安全顾问苏珊·赖斯、前参联会主席迈克·马伦;
联名信指出,超级智能可能带来“人类经济落伍、权力剥夺、自由丧失、公民权利与尊严被侵蚀、国家安全风险,甚至人类灭绝”。这不是“算法偏见”或“就业冲击”,而是“存在性风险”。
三、“73%民意”:从联名信到民调数据的“公众怒火”
未来生命研究所同步发布的美国全国性民调显示:
- 仅5%受访者支持“无监管AI开发现状”;
- 73%支持建立更严格监管机制;
- 64%认为在科学界未就安全与可控性达成共识前,不应开发“超级智能”。
“公众怒火”成为签名信的“燃料”,也让AI风险治理从“精英警告”走向“大众议程”。
四、“硅基 vs 类脑”:从材料到价值的“技术分叉”
曾毅提出“技术分叉”概念:
- 硅基智能:存算分离,目标函数单一,风险可控但上限低;
- 类脑智能:存算一体,生物材料,目标函数可嵌入“超级利他”与“超级共情”,但风险上限高。
“拥有自我的AI才会令人类社会更安全。”曾毅强调,超级智能不应只是“更强大的工具”,而应是“更利他的伙伴”——这一观点,也被写进联名信的“技术愿景”章节。
五、“G20 vs 联合国”:从自律到多边治理的“制度分叉”
联名信发布当日,欧盟与美国正推动不同版本的“AI法案”:
- 欧盟强调“透明度与可追溯性”;
- 美国侧重“市场自律与行业标准化”。
分析人士指出,此次倡议或可推动G20或联合国层面重启AI伦理议题,使AI治理从“行业自律”走向“多边协商”。正如图灵奖得主本吉奥所言:“公众应在塑造人类共同未来的决策中拥有更强话语权。”
六、尾声:从“暂停键”到“重启键”的未完待续
联名信不是终点,而是起点。它不会立刻叫停任何实验室,却为全球立法者提供了“民意授权”;它不会立刻诞生“超级利他”的AI,却把“价值护栏”写进技术发展的底层代码。正如曾毅在朋友圈写下的那句话:“世界尚未准备好迎接不是可控工具的超级智能,但世界必须开始准备。”
从“暂停键”到“重启键”,从“联名信”到“多边协商”,人类正在为自己与机器的共同未来,写下第一份“集体遗嘱”。遗嘱的结尾,不是句号,而是省略号——省略号里,是尚未到来的超级智能,也是必须到来的价值共识。
在新加坡生活
587篇原创
热门跟贴