2024年3月13日,欧洲议会以压倒性票数通过《欧盟人工智能法案》(以下简称“《法案》”),旨在提升欧盟人工智能产业的规范性和透明度,加强技术治理与监管,以人为本推动人工智能有序发展。《法案》作为全球首部综合性人工智能监管法案,将使欧盟在人工智能治理方面走在世界前列,并为西方国家主导人工智能规则走向和监管话语权奠定锚点。
欧盟人工智能发展现状
全球市场份额占比大,生成式人工智能发展迅速。据国际数据公司22日发布的《全球人工智能和生成式人工智能支出指南》估计,2024年欧洲人工智能市场规模将达476亿美元,约占全球人工智能市场总额的1/5,且仍在以33.7%的年复合增长率持续扩增。2023年欧洲生成式人工智能市场份额仅占欧洲人工智能市场总额的9.6%,但鉴于生成式人工智能支出的增长速度是其他人工智能支出增速的3倍以上,预测该份额2027年将增长至整个欧洲人工智能市场总额的1/4以上。
成员国间技术投资差异较大,人才储备总量不足。2022年,全球人工智能技术投资份额中,欧盟整体位列第三,但成员国之间投资水平差异较大。其中,法国在人工智能技术投资方面表现强劲,包括承诺在2022年前向人工智能领域投资15亿欧元,并于2022年宣布追加5亿欧元投资,以打造人工智能强国。相比之下,欧盟其他成员国技术投资较弱。此外,欧盟人工智能领域人才竞争力不足。据《中国人工智能发展报告》统计,德国、法国、西班牙、意大利等欧盟成员国的人工智能人才数量均位居全球前十位,分列第四、第六、第九和第十,四国人工智能人才总数仅占全球总量的12.4%,与排名前三的美国、中国和印度相比差距较大。
重视人工智能治理与监管,先行优势明显。欧盟致力于构建人工智能技术应用监管体系,以打造可信和以人为本的人工智能生态环境。一方面,欧盟委员会2020年发布《人工智能白皮书》,率先提出构建人工智能监管框架,以确保人工智能安全、可信,引领全球人工智能监管体系构建;另一方面,欧盟基于人工智能法治愿景,探索人工智能治理的法律支持,谋求立法先行优势。欧盟委员会自2021年4月21日首次提出《人工智能法案》以来,便积极推动该法案落地,以填补全球人工智能监管的立法空白。
欧盟人工智能风险分析
人工智能技术快速发展,成为推动科技和产业加速发展的重要力量,但其固有的不透明性、不确定性、难管控性,将对经济发展、国际政治和全球治理等带来深远影响,引发全球广泛关注。
基础数据不透明风险。人工智能模型的优劣很大程度上取决于训练模型所使用的基础数据,但因基础数据筛选机制缺乏透明度和可视性,采集、清洗和标记过程中存在黑箱问题,数据质量的真实性和准确性难以监管,导致模型透明度无法保障。
人工智能军事化风险。人工智能作为新技术,具有显著的颠覆性特征,通过智能化的态势感知、战场情报分析、辅助决策和自主武器系统的使用,能够对战争造成非对称影响。美国等军事强国持续探索人工智能的军事化应用,可能带来人道主义风险、人工智能系统稳定性风险及加剧冲突的风险。在全球地缘政治摩擦不断加深的背景下,欧盟无论是选边站队,还是保持中立,都可能受到人工智能军事化应用带来的潜在风险。
人工智能滥用风险。随着生成式人工智能系统的不断扩展应用,也催生了非国家行为体的滥用和非法使用问题,增加了极端主义、恐怖主义风险。欧盟始终坚持发展以人为本的人工智能,强调避免滥用,防止人工智能对个人基础权利和社会民主法治的侵犯。
《法案》全面规范人工智能发展,
提出相应治理举措
《法案》旨在保护个人基本权利、民主、法治免受高风险人工智能系统影响,同时促进技术创新,推动欧盟成为人工智能领域的领导者。
欧盟27国代表一致支持《人工智能法案》
适用主体广泛,具有一定的域外效力。《法案》确立了广泛的适用范围和域外效力:一方面,所有在欧盟境内投入市场或投入使用的人工智能系统均适用该法案,即使系统供应商并未在欧盟设址;另一方面,人工智能系统价值责任链的供应商、分销商、运营商等相关主体,均为本法案的规制对象,全面管控人工智能风险。
制定一般原则,促进以人为本和可信人工智能发展。欧盟人工智能系统或基础模型应遵循以下6项原则:一是人工智能系统在设计、开发、部署和使用过程中,必须以人为本、尊重人权,并由人类适当监控其运行;二是人工智能系统应具备技术安全性和韧性,尽量避免意外伤害,并提升恢复能力;三是应符合现有的隐私和数据保护规则;四是系统的开发和使用应允许适当的可追溯性和可解释性;五是尊重人工智能系统的开发和使用方式的不同,并促进公平性和文化多样性,避免歧视和偏见;六是以可持续和环境友好的方式开发和使用人工智能系统,并使所有人类受益,监测和评估对个人、社会和民主的长期影响。
明令禁止开发和使用4类系统,避免出现不良影响。《法案》明确禁止将4类人工智能系统投放市场或投入使用。一是使用超越人类意识或诱骗、操控技术的系统。二是利用个人或特定群体弱点,扭曲其行为的系统。三是根据自然人或特定群体的社会行为或人格特征,进行社会评价、分类的系统。四是在公共场所使用的“实时”远程生物识别系统,包括评估自然人或群体的犯罪风险;从互联网或闭路电视视频中抓取面部图像,新建或扩大人脸识别数据库;除特殊情况外,在执法、边境管理和教育机构中推断自然人情绪的人工智能系统。这4类禁止情形体现了《法案》的人权考量,避免对自然人或特定群体造成不利影响。
划分人工智能系统风险等级,分类施策,强化管理成效。《法案》基于人工智能的不透明性、复杂性、对数据的依赖性等特点,将人工智能系统的风险等级划分为不可接受风险、高风险、有限风险和极低风险4类。其中,不可接受风险人工智能系统不得在欧盟境内投入使用。高风险人工智能系统需在满足一定条件的情况下使用。有限风险人工智能系统可规范、合理使用,其中人机交互系统、情感识别系统、生物特征分类系统及生成式人工智能系统,需要履行透明度义务。极低风险人工智能系统可自由使用。
制定处罚标准,以此体现“硬法”约束。2024年2月,欧盟在《法案》正式通过前夕成立人工智能办公室,负责监督各成员国的《法案》执行情况,对违反该法案的相关实体进行处罚,处罚结果取决于人工智能系统的类型、公司规模和违法行为的严重程度,根据是否违反法案禁止的人工智能系统条款、是否违反法案合规性要求、是否向监管机构提供错误、不完整或误导信息,制定了三档处罚标准,分别予以对应的处罚。
思考与启示
打造“立法先行”优势,为人工智能发展设置护栏。作为全球首部人工智能立法,《法案》将使欧盟在人工智能法治方面占据先行优势,并为其他国家和地区的人工智能监管设定了基准。从行业角度来看,《法案》有助于提升人工智能行业的规范性和透明度,通过明确监管标准和要求,将有助于减少行业乱象和不合规行为,吸引更多的投资和人才进入人工智能领域,推动行业健康可持续发展。欧盟将以《法案》为监管抓手,希望通过率先制定基本规则,为域内人工智能发展提供基本护栏。
重视高风险人工智能系统管理,强调基本治理原则。《法案》针对高风险人工智能系统构建了涵盖事前、事中和事后的全生命周期监管体系。欧盟对于高风险人工智能系统的划分原则遵循《法案》中所提到的人工智能治理的基本原则,即“促进以人为本和可信任的人工智能应用,并保证对于人民健康、安全、基本权利、民主以及法治的高度保护”。高风险人工智能系统管理是《法案》治理的重中之重,因此欧盟突出强调该类系统在风险和符合人工智能治理原则之间的平衡,以防范其快速发展带来的算法歧视、算法黑箱等问题。
开启全球人工智能分级监管法治进程,迎接人工智能治理时代。《法案》的出台不是终点,而是围绕人工智能技术建立新治理模式的起点。在人工智能技术迅速发展的时代浪潮下,《法案》开启了全球人工智能治理的法制化进程,世界各国将迎来人工智能立法热潮,各相关方应努力把握全球人工智能监管的脉搏,迎接人工智能法治时代。一方面,加强国际合作,探索双边或多边合作治理机制,加深企业在人工智能领域的技术交流和人才互动;另一方面,积极参与国际标准制定,推动国际人工智能治理规则的形成。
版权声明:本文刊于2024年 11 期《军事文摘》杂志,作者:刘永艳、樊伟,如需转载请务必注明“转自《军事文摘》”。
热门跟贴