李志起 段伟文 朱荣生

编者的话:科技界认为,2024年或是AI(人工智能)应用的真正元年。与此同时,“主权AI”的概念受到广泛关注。相关提出者称,借助AI编纂整个国家的文化、社会智慧、常识、历史等各类数据,将是一场新工业革命的开始,“每个国家都需要建立主权AI来实现智慧的生产”。如何定义“主权AI”?相关基础设施应如何构建以实现保障?它会如何影响全球格局及国家战略的建构?

要立足于算力国产化

李志起

随着技术的飞速发展,人工智能(AI)已不再是科幻小说中的概念,而是日益成为现实生活的一部分,更在深层次上触动了国家主权和安全的新议题。

关于近日英伟达公司创始人黄仁勋提出“每个国家都需要拥有自己的人工智能”等观点,可以说是对当前技术发展趋势的深刻洞察。笔者以为,AI已经成为了国家认同和连续性的一部分,是新时代下国家主权的延伸。因此,构建主权AI基础设施不仅是技术发展的必然选择,也是国家安全和未来发展的战略需要。

主权AI基础设施的构建,首先要立足于算力国产化。算力作为AI的基石,其自主可控是国家信息安全和技术独立的重要保障。国家级算力的需求将随着AI应用的普及而不断增长,这要求我们在芯片设计、制造和数据中心建设等关键环节实现自主创新和突破。只有掌握了算力的根本,才能在AI的时代潮流中立于不败之地。

同时,多模态引领的AI应用将是未来智慧生产的关键。图像识别、语音识别、自然语言处理等技术融合,将使得AI更加贴近人类的生活和工作方式,极大地提升生产效率和生活质量。国家应积极推动多模态技术的研发和应用,以抢占这一战略制高点,为智慧生产提供强大的技术支撑。

同时我们也应看到,黄仁勋提出的“主权AI”观点也存在一定的局限之处。首先,该观点强调了每个国家都需要拥有自己的人工智能,以维护国家主权和安全。然而在实际操作中,实现这一目标可能会面临诸多挑战,如技术壁垒、资源分配、国际合作等问题。

其次,过于强调主权AI可能导致各国在AI技术的发展和应用上形成割据局面,缺乏统一的标准和监管机制。这可能会增加商业风险和不确定性,不利于全球AI产业的健康发展。此外,过于强调国家主权可能忽略社会公平和包容的重要性,使AI技术沦为特定国家或利益群体的工具。

我们应辩证看待“主权AI”观点。一方面在全球范围内,AI技术竞争已上升到大国博弈层面。谁能在AI领域取得领先,谁就能在未来国际竞争中占据有利地位。因此,加快主权AI建设,不仅是对技术发展趋势的回应,更是对国家安全和发展利益的捍卫。

另一方面,在推动AI技术的发展和应用时,我们也要考虑全球合作和共同发展。要特别重视通过广泛的国际对话和合作,共同解决面临的挑战和问题,推动全球AI产业的健康、可持续发展。同时,各国在构建主权AI基础设施时,应充分考虑技术、资源、社会等多方面因素,以实现技术自主可控与社会公平包容的平衡。(作者是北京市政协经济委员会副主任,振兴国际智库理事长)

引入文化矫正策略

段伟文

当前,AI大模型正在通过生成海量的内容来重构人类文化和文明。其中,由于英文互联网和语料的优势,英文在基础和前沿大模型中的优势得到累积和进一步放大,甚至可以说占据了绝对优势,“AI时代的语言鸿沟”正在形成。“全球北方”作为开发者,与作为数据训练者和使用者的“全球南方”之间的文化鸿沟加剧现象不容忽视。

在以AI生成内容为主导的未来文化空间内,非英语语言和文化将处于不利地位。由此或将带来全球区域发展差异进一步扩大的问题。由于AI技术大多是在少数几个国家构思和开发的,受到这些国家价值观和文化理念的主导影响,处于少数或劣势的语言及文明势必受到冲击,全球文化多样性亦受到侵害。在当前,尽管全球多方都非常重视AI大模型在治理过程中的价值对齐,但对语言鸿沟和文化鸿沟问题的重视程度与重视意愿则远远不够。

如果不设法克服AI生成内容对文化多样性的冲击,将导致一系列文化不协调现象。首先是形成新的文化障碍和文化霸权,训练数据中的文化偏见易导致人工智能系统在处于弱势的文化区域中出现功能障碍,使弱势文化边缘化并处于更加不利的地位。

其次是加大价值与文化安全的鸿沟。在AI推广应用中,如果不考虑目标群体的文化生态系统,AI的安全和伦理护栏就会失效。例如,旨在检测攻击性和错误信息的内容审核系统可能无法检测出在特定文化中具有攻击性和歧视性的内容,无法有效抑制有害内容在某些文化环境中传播。

“文化擦除”现象更应受到关注:一些非AI创新区域的弱势文化或将被忽视、简化甚至被擦除,散落并消失在历史中。

为了积极应对人工智能带来的文化不协调现象,应引入若干文化矫正策略。一方面,应认识到文化智能是多元智能的有机组成部分,在AI创新中要引入“文化智商”的理念,对大模型等生成式AI的“文化智商”进行测评和调适。

另一方面,要构建一种AI时代的文化际伦理问题。我们应促使AI创新更加注重对文化多样性的增进,通过AI的跨文化伦理实践加强其文化包容性,将不同文化对AI创新在文化上的可接受性作为人机价值对齐的关键指标。(作者是中国社科院科学技术和社会研究中心主任、研究员)

讲“主权AI”,也应讲“全球AI”

朱荣生

黄仁勋提出的“主权AI”概念试图说明的是,一国应重视对AI技术的控制权,并借此维护国家安全、促进经济增长以及推动文化发展。在回答作为发展中国家领导人应如何确保“主权AI”时,他强调了“一国应将本国语言和文化数据编纂成自己的大型语言模型”等观点。

在笔者看来,尽管上述内容突出体现了确保新兴技术自主权、使用权和发展权对一个国家的重要性,但其忽视了“主权AI”在实践中遇到的潜在挑战,以及当下激烈的数字地缘政治竞争下激进的“数字民族主义”给全球人工智能健康发展带来的阻碍。

一方面,AI技术具有“强者先行、强者定法”的特征。发展中国家固然能够通过购买他国服务建立其自身的AI基础设施,但其中的科技研发优势、高端人才培养、技术标准规则恐怕将始终牢牢掌握在技术强国手中。广大发展中国家与发达国家的科技实力在AI的时代被进一步拉大。技术强国将占据全球AI产业链的中心位置,而技术弱国则将不得不处于边缘位置,全球“数智鸿沟”也将由此进一步拉大。

另一方面,过度强调“主权AI”可能将进一步刺激地缘政治层面的竞争。当前,美国声称中国是唯一有意愿和实力挑战美国的国家,并且将中美之间正常的科技交往予以“安全化”,对中国的AI及相关科技企业实施精准打压。这种维护所谓的“国家安全”的行为显然不利于中美这两个科技大国携手推动全球人工智能的健康发展。

AI领域的相关治理攸关人类命运,是全球面临的严峻课题。国际社会需要重视广大发展中国家在新兴技术浪潮中的脆弱性。技术强国不应一味只顾本国的主权、安全、发展等利益而采取“脱钩断链”的手段。引导全球AI行业健康发展,进而促进AI技术造福于全人类,是世界各国的共同利益。要实现这一目标,恐怕不仅仅需要确保每个国家仅基于本国基本安全和发展利益的“主权AI”,更需要具有推动构建基于人类命运共同体的“全球AI”意识与行动。(作者是清华大学战略与安全研究中心特约专家)▲