一位曾给联合国和英国政府当顾问的教授,在议会听证会上把中美AI格局说反了——中国成了"好人",美国成了"狂野西部"。

这话出自温迪·霍尔(Wendy Hall)之口。她是南安普顿大学网络科学研究所所长,当过联合国人工智能顾问委员会成员,还给特蕾莎·梅政府写过AI政策评估报告。1月她在英国下议院商业和贸易委员会作证时,抛出了这个让在场议员愣住的判断。

打开网易新闻 查看精彩图片

霍尔的原话很直接:"中国正在做一些惊人的AI工作,事实上,目前他们扮演着好人的角色,因为美国完全反对任何监管,反对全球治理的讨论。"

她补了一句更扎心的:"全是'让美国再次伟大'那套。全是:我们要不惜一切代价赢。"

这场听证会的背景,是特朗普1月份刚放话称"我们在AI领域大幅领先中国"。白宫把中美AI竞争定性为一场直球对决。但霍尔想提醒议员的是:光看技术参数可能漏掉更重要的东西——谁在制定规则,谁在破坏规则。

中国AI的"开源牌"打到了英国

霍尔在证词里提到一个细节:中国AI研究者"高效、创新,愿意以开源方式发布模型"。

这话有具体指向。2025年1月,深度求索(DeepSeek)发布的聊天机器人让西方同行吃了一惊——性能逼近美国顶尖产品,训练成本却低得多。该公司预计本月还将发布新版本。谷歌DeepMind首席执行官德米斯·哈萨比斯当时评估,中国AI整体落后美国约六个月,但尚未在AI科学前沿实现突破。

开源策略成了中国AI的差异化武器。霍尔说,这让英国研究者越来越难以与中国开展合作,她感觉自己的学术自由受到了限制。

这里有个微妙的张力:中国公司愿意开放代码,但英国政府却在收紧合作。上个月,英国政府资助的新兴技术与安全中心刚发出警告,称对手国家在AI领域的合作构成国家安全风险,并点名中国、俄罗斯、伊朗、朝鲜之间的协作证据在增加。

北京确实要求中国AI公司配合国家情报工作。霍尔没否认这一点。她的判断更复杂:在安全顾虑之外,不能忽视中国在国际规则层面的积极姿态。

美国的"狂野西部"长什么样

霍尔描述的"狂野西部"图景,核心是美国把AI变成了利润驱动的军备竞赛。

她说美国"建立了一场贪婪公司之间的竞赛,依赖炒作"。这话指向的是硅谷的融资逻辑——大模型公司烧钱换规模,用叙事推高估值,监管框架几乎不存在。

特朗普政府的姿态是明牌对抗。1月的表态把AI竞争框定为零和博弈:要么美国赢,要么中国赢。霍尔认为这种思路正在破坏多边治理的可能性。

英国自己的处境很尴尬。听证会上,剑桥大学的尼尔·劳伦斯(Neil Lawrence)——他是DeepMind教授——警告说,英国对美国科技巨头的依赖可能重演"邮局地平线丑闻"。

那起丑闻是英国现代史上最严重的司法冤案之一:1999年至2015年间,数百名邮局支局长因 faulty 的Horizon软件被错误指控盗窃和欺诈,有人破产、入狱甚至自杀。软件由日本富士通开发,但英国邮局盲目信任系统输出,拒绝承认错误。

劳伦斯的警告是:当关键基础设施依赖外国公司的黑箱AI系统,而本国缺乏监管能力和替代选项时,类似的系统性风险会重演。

全球治理的真空与填补

霍尔证词中最具政策含义的部分,是关于AI全球治理的。

她说中国"支持跨国尝试引入AI全球治理",而美国"完全反对任何监管"。这不是说中国突然变成了理想主义者——北京有自己的战略计算。但在联合国等多边场合,中国的表态确实比美国更接近欧洲倡导的治理框架。

这种姿态差异有历史脉络。2023年,中国发布《全球人工智能治理倡议》,提出发展、安全、治理并重的原则。2024年,中国又推动联合国大会通过首份关于AI的全球性决议。美国对这些文件的态度是参与但不承诺,更关键的是拒绝约束本国企业的条款。

霍尔作为前联合国顾问,见过太多这种博弈。她的判断是:当美国退出规则制定,中国会自然填补空间——不是因为中国的方案最优,而是因为这是唯一还在桌上的方案。

这对英国意味着两难。一方面,安全机构警告中国AI合作的风险;另一方面,学术和产业界需要接触最先进的研究和模型。霍尔感觉自己"学术自由受限",正是这种张力的个人体验。

技术差距之外的竞争维度

听证会上有个未被充分展开但很关键的问题:AI竞争到底比什么?

特朗普政府的答案是算力和模型性能——谁的大模型更强,谁就赢。哈萨比斯的"六个月差距"评估也是这个框架。

但霍尔想把议员的注意力引向另一个维度:规则制定权。AI的全球治理框架将决定技术如何部署、数据如何流动、算法如何审计。这些规则会影响商业模式、市场准入,甚至地缘政治联盟。

在这个维度上,中国的"好人"角色是策略性的,但也是真实的。开源发布、多边倡议、标准制定参与——这些动作在积累"治理合法性",即使其国内监管实践与西方价值观有差异。

美国的"狂野西部"策略则是一种双重赌注:既赌自己能靠技术领先维持单边优势,又赌全球治理框架不会真的成型。两个赌注都可能是错的。

英国的选择困境

劳伦斯关于"邮局地平线丑闻"的警告,把抽象的地缘政治拉回了具体的政策选择。

英国目前的情况是:没有本土大模型公司能与美国或中国顶尖玩家竞争;公共部门和关键行业越来越依赖谷歌、微软、OpenAI、亚马逊的服务;监管框架(如AI白皮书)以"创新友好"为名,实质上是轻触式监管。

这种结构性的依赖,意味着英国在AI治理讨论中的话语权受限。霍尔和劳伦斯都在提醒:技术依赖会转化为规则接受——当所有系统都是美国的,你只能接受美国的运行逻辑。

但转向中国合作的路径也被安全顾虑堵住了。新兴技术与安全中心的警告不是虚张声势:AI模型的双重用途特性、供应链的复杂性、学术合作的情报风险,都是真实存在的。

英国政府想要的"第三条道路"——既不完全倒向美国,也不靠近中国——在AI领域可能最难走。因为AI的基础设施属性太强,中立需要的技术自主能力,英国恰恰不具备。

霍尔的证词为什么值得注意

这不是一份反美挺中的政治宣言。霍尔的原话包含对中国合作的保留,也承认安全顾虑的合理性。她的核心论点是:评估AI竞争需要多个维度,而美国当前策略在治理维度上正在失分。

这个判断的时效性很强。特朗普第二任期刚开始,AI政策还在成型中。但"不惜一切代价赢"的基调已经明确——削减监管、加速部署、对抗中国。霍尔想抢在这个叙事固化之前,向议会输入一个修正视角。

她的身份让这话有分量:既是学术权威(英国计算机科学领域少数的女爵士),又有政策经验(联合国、英国政府)。她不是为中国游说,而是在提醒英国不要在美国主导的框架里丧失判断力。

听证会的记录显示,议员们问了跟进问题,但没有激烈质疑。这可能说明霍尔的观点在委员会内部有一定接受度,也可能只是听证会的礼貌形式。无论如何,证词进入了议会记录,成为后续政策辩论的参考点。

开源作为战略工具的再审视

霍尔提到中国研究者的"开源意愿",这个观察值得拆解。

开源在AI领域有双重效应。对发布方,它是技术影响力的扩散机制——模型被广泛采用,意味着相关研究范式、工具链、人才网络围绕自己形成。对接受方,它降低了获取先进能力的门槛,但也带来依赖和审计难题。

中国的开源策略选择性地利用了这种不对称。深度求索的模型性能 surprised 西方观察者,但其开源许可条款、训练数据构成、安全评估实践,并没有接受同等的国际审查。霍尔说的"学术自由受限",部分指的就是这种不透明——你想深度合作,但无法获得对等的信任基础。

美国公司的闭源策略则是另一个极端。OpenAI的GPT-4、谷歌的Gemini,技术细节披露越来越少,API成为唯一接口。这种"黑箱即服务"模式,让依赖方连审计的可能性都没有。

两种模式都不理想。霍尔没有明说,但她的证词暗示:英国需要能在两者之间保持批判距离的能力,而不是被动接受任一选项。

六个月的差距,多远的未来

哈萨比斯的"六个月"评估,在听证会上被当作背景事实引用。但这个数字本身需要审视。

AI领域的"领先"定义在快速变化。2023年,差距看的是模型参数规模;2024年,看的是推理成本和效率;2025年,可能要看自主智能体(AI Agent)的实际部署能力。深度求索的突破性在于证明了低成本训练的可行性,这改变了