刚从白宫国家安全顾问位置退下来半年多,沙利文最近又被推上风口浪尖——这次他不再是端着官腔的政府官员,而是以哈佛教授的身份,对着镜头说了不少以前在任上打死都不会讲的大实话。2026年2月9号,美国公共广播电视台的访谈里,他聊台海、说AI竞赛,甚至吐槽特朗普时期的半导体管制,每一句都像往平静湖面扔了块石头,瞬间炸出一堆讨论。
2025年1月拜登任期结束,1月20号沙利文正式卸任,转头就去了哈佛肯尼迪政府学院当基辛格实践教授,专门研究全球秩序和大国竞争。以前在白宫,他说话得绕着弯子,生怕哪句说错影响政策;现在成了学者,没人管他怎么说,表达空间一下子大了不少。
2026年春节,中国好几家AI企业扎堆发布最新大模型,海外媒体瞬间炸了锅,全在聊中美技术竞争。也就是这时候,沙利文接受了美国公共广播电视台的访谈,话题直接对准了两国AI的发展路径。
访谈里他突然提到台湾地区问题,一点不含糊——说2022年8月佩洛西去台湾,给台湾带来的代价远大于好处。中国的反制措施直接改了台海周边的运作环境,而且这种调整是实打实的,根本转不回去。这话要是放在他任内说,估计早就被白宫内部批得狗血淋头了,现在卸了任,倒是敢把实话说出来。
接着聊特朗普时期的半导体出口管制,沙利文也没客气——说当时面对中国反制,美方有些所谓的国家安全措施其实松了绑。这话等于间接承认,以前那些强硬政策根本没扛住压力,悄悄打了折扣。
他还强调,中美现在抢着搞能自我完善的超级智能系统,谁先搞成,谁就能在国家安全、经济增长、技术进步上占足便宜,而且是长期的。但这种竞赛风险也大得吓人,一个没控制好,可能出大问题。你想啊,能自我完善的超级智能,相当于机器自己就能进化,要是被用来搞军事,那后果真不敢想——以前核武器还得人类按按钮,现在AI要是自主决策,万一出个bug或者被黑客搞了,那麻烦就大了。
所以他觉得,两国必须一直聊AI安全管理的事,这跟冷战时美苏谈核武器管控有点像,但风险更高。还透露拜登政府2024年就跟中国启动过相关讨论。
2024年中美高层还就AI风险达成过框架协议,明确核武器决策必须人类说了算,不能让AI瞎指挥。这协议给后面的对话打了基础,不过能走多远还不好说。
军事领域用AI的国际努力也在推进,2023年荷兰海牙办了第一届峰会,中美都去了;2024年韩国第二届,2026年西班牙第三届。但两国虽然参加了,不是所有承诺书都签了,说明各自担心的点不一样。
沙利文觉得,AI这东西跨好多领域,得建个更全的国际机制,不光政府,私营部门、民间力量都得拉进来,一起应对网络安全、生物武器风险,还有可能失控的系统问题。他这建议不是瞎想的,是跟踪技术发展好久才说的。
聊到美国自己的AI监管,沙利文也吐槽了矛盾——私营企业主导创新,大型科技公司市值虚得很,泡沫都出来了。政府既怕管太严影响竞争力,又得平衡创新和安全。这种矛盾在行业里特别明显,美国社会也知道私营公司的目标跟公共利益有时候不对付,但管了又怕企业落后于中国同行。
这些话其实是沙利文卸任后对中美技术互动的务实看法。他现在还在哈佛搞研究教学,通过各种平台分享观点,给后面的对话提供参考。
从他的经历能看出来,卸任后换了角色,看问题的角度确实更全了。以前在政府里可能得顾着政策执行,现在能跳出圈子,说点背后的实际考量。
AI竞争还在深化,沙利文提醒各方得重视风险管理,这点中美高层交流里已经有点苗头了。但未来对话能不能落地,还得看两边接着努力。
其实沙利文这些话,不是凭空来的,是结合他的外交实践和最新技术进展说的。现在他专心在哈佛,用自己的经验接着参与全球事务讨论。
参考资料:人民日报《沙利文卸任后谈中美关系》;新华社《全球AI安全治理的中国主张》