1 引言
2023年,OpenAI公司推出的基于人工智能技术的对话生成模型ChatGPT吸引了大量用户。随着ChatGPT应用场景不断扩大,公众对人工智能技术应用的认识,逐渐从抽象的概念走向具体实际。2024年初,OpenAI公司发布Sora,作为一款人工智能文生视频大模型,Sora引起各界广泛关注的同时也引起围绕人工智能技术未来发展可能导致风的思考与讨论。
基于此背景,全球各大经济体已经陆续出台一系列人工智能相关政策。斯坦福以人为本人工智能研究所(Stanford HAI)发布的《2024年人工智能指数报告》(AI Index Report 2024)显示,从2016年到2023年,研究涉及全球128个国家,其中,32个国家至少颁布了一项人工智能相关政策和法案,共计通过148项与人工智能相关的政策和法案。2023年,通过政策和法案的总数为28项,低于2022年和2021年,但显著高于2016-2020年。已颁布政策中包括美国2016年出台的《白宫人工智能研究与发展战略》(White House Artificial Intelligence R&D Strategic Plan);加拿大2017年发布的全球首个国家层面人工智能战略的《泛加拿大人工智能战略》(Pan-Canadian Artificial Intelligence Strategy);欧盟2021年首次提出,2024年3月通过执行的世界上第一部全面监管人工智能的法律《人工智能法案》(Artificial Intelligence Act)等在人工智能治理领域具有重大意义的政策文件。
目前,国内外现有研究已对全球各国人工智能政策的发展,进行了较为全面的梳理,先后涵盖了政策比较、政策评估、政策实践以及案例分析等方面。国外,经济合作与发展组织OECD(Organization for Economic Cooperation and Development)报告,关注了其成员国人工智能相关政策和战略的设计、执行和评估的情况;斯坦福以人为本人工智能研究所(Stanford HAI)发布的《2024年人工智能指数报告》(AI Index Report 2024)中第7章政策与治理部分,先后深入讨论全球各国人工智能的政策目标、政策话语、政策内容和政策工具。国内研究目前主要讨论人工智能政策在具体国家和具体领域的实践,如国际人工智能应用于公共管理领域的趋势,发达国家人工智能养老战略与政策,人工智能人才培养政策等。
当前,世界各个发达经济体在关注如何推动人工智能技术的发展的同时,也聚焦如何对人工智能技术在各个领域的应用进行合理和精准的监管。国外,《2024年人工智能指数报告》(AI Index Report 2024)在对各国人工智能政策梳理的过程中,将政策目标划分为促进发展的扩张性以及关注监管的限制性,一定程度上缺乏进一步讨论实现政策目标的具体政策工具。国内研究逐渐开始关注平衡人工智能促进和监管并行的路径,但是围绕人工智能政策工具的研究仍然较少。综上,本研究从政策工具视角出发,在促进发展的扩张性和关注监管的限制性政策目标基础上,进一步分析全球各发达经济体人工智能政策工具的运用。
2 政策工具与人工智能政策
政策工具是政府实现特定政策目标或者履行特定职责所采用的方式、手段与机制,在公共政策中起着至关重要的作用,其选取及设计合理与否直接决定着政策目标的达成度。作为政策文本的表现形式,政策工具是政策目标和政策行动之间的连接机制,有关部门通过使用政策工具影响目标团体从而实现相关政策目标。其使用情况不仅能够体现政策的发展和侧重,还能够揭示系列政策文献的制定逻辑与实施规律,是研究者分析政策、制定者完善政策的可靠手段与依据。
政策工具理论兴起于20世纪80年代,主要著作有胡德的《政府工具》,B.盖伊·彼得斯(B.Guy Peters)和弗兰斯·K.M.冯尼斯潘(Frans K.M.van Nispen)的《公共政策工具:对公共管理工具的评价》(Public policy instruments:evaluating the tools of public administration),其最初用来解释公共行为和预测目标人群的行为及反应,但其概念并不统一。在现有理论框架中,按照研究重点不同,政策工具的类型进行了多种划分。例如,根据不同产生场域,政策工具被划分为市场化工具、工商管理技术和社会化手段;根据改善民生、创新发展等理念,政策工具被归为供给型、环境型和需求型;根据政策工具设计概念,政策工具划分为实质型和程序型;根据政府塑造的政策议程,政策工具划分为需求常态化的工具、使需求定期化的工具、产生需求的工具以及强加政策议程的工具。根据政策促进发展和关注监管并重的研究目标,研究选取麦克唐纳(McDonnell)和埃尔默(Elmore),以及施耐德(Schneider)和英格拉姆(Ingram)的政策工具划分框架。麦克唐纳和埃尔默基于政策目标向政策实践的转变,将政策工具的划分为命令工具、激励工具、能力建设工具和系统变革工具四种。而施耐德和英格拉姆聚焦政策工具的应用层面,将政策工具分为命令工具、激励工具、能力建设工具、引导劝诫工具和学习工具五种。考虑到人工智能技术的应用尚在发展阶段,麦克唐纳框架下的系统变革工具使用较少。同时,施耐德的学习工具侧重于从其他工具中选择有效工具,因此,研究将排除系统变革工具和学习工具,综合使用两个框架中具有重叠和交集的命令工具、激励工具、引导劝诫工具和能力建设工具共四种工具进行分析。
第一,命令工具:主要涉及发达经济体政府在人工智能领域采取的法律法规、行政命令等强制性政策手段,体现了政策强制力的特性,对政策对象的行为要求、规则制定以及惩罚规定,政策中一般呈现出“必须”“应当”等文本。 第二,激励工具: 主要针对政府通过资金支持、税收优惠等激励措施来促进人工智能技术研发和创新的政策。 在这一方面,发达经济体都先后制定了各有侧重的财政激励措施,激励对人工智能相关项目的投资。 例如,2023年11月,英国政府预计拨款5亿英镑用于促进人工智能发展,并对其信息技术支出提供25%的税收减免,就是较为典型地反映了激励政策工具的应用。 第三,引导劝诫工具: 主要关注政府发布的指导文件、行业标准和最佳实践指南等引导性政策手段。 一般认为,引导劝诫工具是较为较温和的行政命令,试图通过劝说,引导等手段传递政策偏好和价值取向。 第四,能力建设工具: 指政府通过教育培训、科研基础建设等手段来培养人才、促进技术转移和商业化的内容,也包括增加科研投入和创新生态建设方面的举措。 能力建设工具在政策文本中往往表现为“推动”“加强”等表述。
3 各发达经济体人工智能政策现状:平衡创新发展和公众利益
截至2024年,各个发达经济体的人工智能政策发展均呈现出了寻求平衡发展和保护公众利益的趋势。《2024年人工智能指数报告》显示,2023年该报告关注的国家和地区发布的21个人工智能相关的方案和政策中,13个指向了扩张性增强人工智能能力,8个对人工智能使用进行了限制。限制性方案和政策的数量达到自2016年有统计数据以来的最高点。在英国媒体Tortoise在2023年发布的第四版《全球AI指数》(The Global AI Index),根据投资、创新和实施三个维度对全球62各国家和地区进行的排名中,美国在其中排名第一,中国排名第二,新加坡排名第三,而位于欧洲的英国、德国、瑞士、芬兰、荷兰、法国都排在前十五名之中,而在前二十的国家中,其中11个都是位于欧洲的国家。2023年,美国、欧盟和新加坡,均出台了被认为具有里程碑意义的人工智能政策行动。2023年底,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》达成协议。该法案严格管控生成式人工智能的使用和发展。2023年,美国参议院举行听证会并且下发行政命令,致力于发展人工智能技术,助推经济发展。这两类政策方向曾经被认为代表了目前发达经济体人工智能政策的两大主要特征:欧盟的人工智能政策更侧重呈现出“以人为本,伦理先行”。而美国的人工智能政策则更聚焦促进本国产业创新和发展。但是,目前欧盟的人工智能政策也开始倾向鼓励促进发展和创新,而美国的人工智能政策也开始日益关注公众利益。2023年12月,新加坡出台《全国人工智能策略2.0》(Singapore National AI Strategy 2.0),继续大力发展人工智能,以赋能其所定位的“智慧国家”建设;将监管定位于为人工智能发展服务。
3.1 欧盟:从全面监管到鼓励创新
欧盟地区缺乏产生具有区域性或者国际性影响的人工智能公司,因而形成独具欧盟特色的“以人为本,伦理先行”的人工智能政策取向,长期执行较为谨慎的人工智能政策。在这样的政策取向之下,欧盟建立了严格的监管和审查制度,以确保人工智能技术的合法、公正和安全的应用。欧盟2023年出台的20个法案和政策中有12个倾向于扩张特征,8个指向限制特征。具体而言,欧盟的人工智能政策的特征包括:
第一,规范人工智能技术的开发和应用。对内,欧盟制定了一系列人工智能技术标准,包括数据隐私保护、算法透明度、风险管理等方面的标准,以指导企业和研究机构的人工智能技术开发和应用。对外,欧盟鼓励各成员国加强与国际标准组织和其他国际组织的合作,促进跨国合作和信息共享,共同应对人工智能技术带来的挑战和风险。最具代表性的是欧盟2024年最终通过的《人工智能法案》。该法案旨在规范各种人工智能应用,并强调了对公民权利和数据隐私的保护。法案设立了一系列规则,要求人工智能系统必须具备透明度、可解释性和责任性,以确保人工智能技术的安全和合法使用。透明度方面,清晰地展示其运行方式和决策过程,以便用户和监管机构了解系统的工作原理和数据处理过程。可解释性方面,清晰地解释其决策和推荐结果的依据和逻辑,增强用户对系统决策的信任。责任性方面,持续监督和追责机制以及遵守伦理准则和社会责任,确保其技术和行为符合社会价值观和道德标准。
第二,制定了严格的监管和审查制度。欧盟委员会成立了专门的人工智能监管机构,负责监督和评估人工智能应用的合规性和风险。监管机构负责监督人工智能技术的开发、部署和使用过程,并对违反规定的行为进行调查和处罚。同样以《人工智能法案》为例,作为全球首个人工智能监管法案,该法案建立了基于风险等级的监管体系,即以人权和安全为基准把人工智能的风险分为四个等级:禁止行为、高风险系统、有限风险系统和最低风险系统。不同类别的AI系统需要遵守不同的研究开发、市场投放和使用规范。部分欧盟国家要求人工智能系统开发者提供详尽的技术文档和风险评估报告,并对其进行严格的审查和评估。此外,部分欧盟国家还建立了人工智能技术审查机构,负责对新开发的人工智能系统进行技术审核和安全评估,以确保其符合法律和道德标准。以OpenAI的ChatGPT和谷歌的Gemini为例,欧盟认为此类强大的人工智能模型可能会对公民构成系统性风险,因此必须开展措施评估并减轻风险,确保系统安全的同时,还需报告严重事件和分享能源消耗的详细信息。
第三,鼓励人工智能技术的研发和创新。欧盟也通过资金支持和科研基础建设等手段,鼓励人工智能技术的研发和创新,促进人工智能产业的发展。欧盟设立了多个人工智能研究计划和基金,预计在未来十年内每年继续投资至少200亿欧元用于人工智能研发,为科研机构和企业提供资金支持和技术支持,推动人工智能技术的创新和应用。同时,欧盟加强对人工智能人才的培养和引进,通过开展培训项目和科研合作吸引全球优秀人才。
3.2 美国:从促进创新到加强监管
美国的人工智能政策被认为对人工智能行业的发展较为友好,以“自由放任,市场驱动”为主要特征。目前,美国政府在人工智能政策方面采取了更为多样化的措施,在继续促进技术的创新和商业化的同时,加强监管和治理,保护公众利益和个人权利。以2023年美国出台的13项法案和政策为例,其中10条倾向限制人工智能,仅有3条指向促进人工智能扩张。同年,美国发布人工智能法规的监管机构数量也从2022年的17个增加到21个。具体而言,其人工智能政策发展的特征包括:
第一,美国政府长期积极致力于制定人工智能战略和法规,以确保该国在人工智能领域的国际领先地位。一方面,政府部门继续发布一系列战略文件和政策指导,以明确人工智能发展愿景,并为人工智能技术研发和商业化提供支持。另一方面,美国政府还积极进行国际标准制定工作,与其他国家和组织合作,共同制定全球统一的人工智能标准和规范。
第二,促进人工智能技术的商业应用和创新。为了鼓励和支持人工智能技术的应用和创新,美国政府采取了一系列激励措施。一方面,政府通过资金支持、税收优惠等方式向人工智能领域提供资金和资源,以促进技术的研发和商业化。另一方面,政府还加强了与企业和学术界的合作,共同推动人工智能技术的创新和应用。例如,美国国家科学基金会和美国国家人工智能研究所等机构与行业合作伙伴共同开展一系列人工智能研究项目,以推动技术发展和应用。
第三,平衡技术创新和公共利益。一方面,美国政府发布了一系列指导文件和行业标准,在人工智能伦理、数据隐私、安全性等方面,在为企业提供清晰指导,确保企业在人工智能技术开发和应用中遵循道德和法律准则。另一方面,政府还加强了对企业和机构的监督和检查,规范人工智能技术的开发和应用,防止数据滥用和个人信息泄露,保护公众利益和个人权利。拜登于2023年签署发布的《关于发展安全、可靠和可信的AI行政命令》(Safe,Secure,and Trustworthy Development and Use of Artificial Intelligence)中强调了加强对人工智能技术的监管和管理,保护公民数据隐私和个人权利。
3.3 新加坡:提高人工智能定位,确保监管契合人工智能发展需要
在全球各经济体中,新加坡在人工智能技术应用和人工智能人才方面的指标基本位于世界前列。新加坡早在2017年5月就了启动国家层面的《新加坡人工智能》(AI Singapore)战略,将发展目标提升到建立“智慧国家”(Smart Nation)。因此,新加坡大力关注以人工智能赋能国家现代化战略,积极打造人工智能技术应用与研发的优势,寻求成为全球人工智能技术的领跑者。在英国媒体Tortoise在2023年发布的第四版《全球AI指数》(The Global AI Index),根据投资、创新和实施三个维度对全球62个国家和地区进行的排名中,新加坡仅次于美国和中国,排名全球第三位。在斯坦福以人为本人工智能研究所发布的人工智能指数年度报告,新加坡的各项指标也居于全球前列。尤其《2024年人工智能指数报告》显示,在2021年到2022年间,新加坡在工业机器人安装量的年度增长率上达到了68%,位于全球第一。2023年,新加坡对人工智能人才招聘的增长率达到了18.9%,位于全球第二。同年,新加坡的人工智能人才集中率达到0.9%,也位于全球第二。具体而言,新加坡的人工智能政策呈现出以下特征:
第一,注重人工政策的顶层设计。新加坡政府2017年5月启动国家层面的《新加坡人工智能》战略;2019年11月,出台《国家人工智能战略》(National AI Strategy);2023年12月,出台《全国人工智能策略2.0》,系列政策在加速推动人工智能技术的开发应用的同时试图打造一个全社会参与的创新生态系统,奠定人工智能技术开发的先行者优势,赋能国家的经济增长和竞争力。
第二,推进人工智能技术的全面应用。新加坡积极推动人工智能技术的在政策制定、公共服务领域的应用,促进其对社会经济的积极影响,以提升国家的整体社会福祉和可持续发展。企业层面,新加坡政府制定了政策指南,以引导企业和机构在人工智能技术开发和应用中遵循最佳实践。
第三,提升人工智能人才的质量和数量。首先,积极吸引全球领军人才。新加坡将推出“人工智能客座教授计划”(AI Visiting Professorship),吸引世界级顶尖研究人员与新加坡合作。其次,大力培养本地人才。新加坡政府建立了从中小学到博士阶段的全方面支持计划。在中学校开设电脑编程正式课程之外,新加坡政府投资700万新元,与本地大学合作推出“人工智能加速型硕士课程计划”(AI Accelerated Masters Programme),将硕士文凭缩短至一年,快速培养能够发挥作用的本国研究人员。再次,增加本地从业人数。新加坡政府计划在五年内,通过设立从人工智能相关专业从本科到博士阶段的奖学金,以及面向从企业高管到普通员工的多层次实习和培训,将本地人工智能从业人数增加至1.5万人。最后,增强公众使用能力和信心。新加坡为公众提供基础的计算机技能和思维知识普及,建立公众对人工智能应用的信任,提升公众对人工智能的学习兴趣,提升公众对人工智能的应用能力。
第四,促进人工智能领域的多层次国际合作。政府层面,新加坡积极在多边贸易协定中推动人工智能治理的国际互认,同时还与中国、美国、英国和韩国等进行多方位的合作;政企层面,新加坡与美国市值最高的芯片厂商英伟达(Nvidia)达成合作,共同创建一个支持11种语言的大语言模型。同时,英伟达公司还将支持并参与新加坡的《全国人工智能策略2.0》政策。
第五,监管为人工智能的发展服务。鉴于人们对数据安全的担忧日益增加,《全国人工智能策略2.0》涉及了隐私保护领域,具体表述为“应该投资隐私增强技术”,目的是“鼓励更多的数据流动”,并让监管环境要适宜人工智能的发展。值得注意的是,文件中“应该投资隐私增强技术”属于扩张性政策;“鉴于人们对数据安全的担忧日益增加”则需要严格监管的限制性政策,文件中展示出利用限制性监管政策助推扩张性发展政策的倾向。
4 政策工具视角下的分析
引入政策工具理论视角,以政策扩张性和限制性为分析目标,可以发现:无论在支持扩张,增强人工智能能力方面,还是在限制人工智能使用,保护公众隐私方面,各类政策工具都已经被广泛且深入的使用,但不同发达经济体在运用政策工具方面表现出较大差异。
4.1 扩张性政策目标
4.1.1 欧盟
欧盟人工智能相关法案和政策中,主要运用激励性工具和引导劝诫工具支持扩张性目标。激励性工具方面,欧盟主要通过资助研发和补贴的形式,例如地平线欧洲(Horizon Europe)等项目,鼓励企业和研究机构进行创新研究以及支持企业进行投资。引导劝诫工具方面,欧盟在《人工智能法案》中提出针对中小企业和初创企业,可以采取有针对性的措施,减少中小企业和初创企业的监管负担。
4.1.2 美国
在美国人工智能相关法案和政策中,主要使用命令型工具、激励性工具以及能力建设工具。首先,大量的命令型政策工具被使用。2023年,美国政府发布了多项行政命令,直接规定人工智能政策的制定和实施,多项行政命令都要求政府部门采取措施促进人工智能的发展和应用。其次,激励性工具被广泛使用。一方面,美国政府通过各种研发资助项目,鼓励企业和学术机构在人工智能领域进行创新;另一方面,美国政府采用税收政策和奖励措施,激励企业增加对人工智能技术的投资和研发。截至2023财年,美国在非国防和军事领域的人工智能研发预算费用已经达到18.4亿美元,是2018财年的3.3倍。能力建设工具方面,一方面,该工具关注人才培养。政府促进高等教育和一系列职业培训计划,培养满足人工智能技术应用需求的人才;另一方面,政府也为人才能力的提升建设必备的基础设施。例如,2023年7月,美国参议院提议的《创造AI法案》(CREATE AI Act)提出建立国家人工智能研究所(NAIRR)。作为一个国家级的研究基础设施,美国国家人工智能研究所提供计算资源、精选数据集、教育工具和人工智能测试平台,目的在于提高人工智能研究人员和学生获取基本资源的能力,最终增强人工智能研究能力。
4.1.3 新加坡
新加坡人工智能相关法案和政策中,四类政策工具都被广泛使用。命令型工具方面,新加坡政府出台了一系列行政命令,全面支持人工智能技术从研发到应用的全流程,如2023年12月发布《人工智能策略2.0》。在激励工具方面,从2017年以来,新加坡政府持续加大在人工智能领域的投资。自从《人工智能策略2.0》发布以来,新加坡政府计划在未来5年继续投资超过10亿新元(约7.43亿美元),全面提升该国人工智能研发和应用能力。在引导劝诫工具方面,新加坡政府积极引导企业使用人工智能解决方案,优先发展人工智能技能,在《人工智能策略2.0》中,新加坡政府强调要加强企业对国内人工智能的应用,在企业间建立新的人工智能卓越中心,并探索建立行业内人工智能交流平台。能力建设工具方面,本土的人工智能能力的建设一直是新加坡政府所关注的政策工具。新加坡政府在积极吸引供给人才的同时,着力建立从中小学到博士阶段的全方面人工智能人才的培养体系,构建覆盖从企业高管到普通员工,再到社区居民的多层次培训计划,全面提升全民的数字素养。
4.2 限制性政策目标
4.2.1 欧盟
欧盟全面且深度使用了各种政策工具。命令型工具方面,《人工智能法案》大量条款指向规范人工智能技术的开发和应用,保护公民权利和数据隐私。尤其在该法案的第二章,直接指向“禁止的人工智能行为”,例如,该法案禁止某些“威胁公民权利”的人工智能应用,包括基于敏感特征的生物识别分类系统,从互联网或闭路电视录像中无目标地抓取面部图像以创建面部识别数据库等。在激励工具方面,《人工智能法案》的条款多次强调,违规使用和发展高风险人工智能系统将会导致罚款。在引导劝诫工具方面,欧盟发布的包括《人工智能法案》在内的一系列伦理相关的指导文件,对法案进行解读和解释,以此引导企业合理使用人工智能技术,确保技术的道德和负责任性。在能力建设方面,欧盟在《人工智能法案》的人工智能素养部分,明确提出通过教育和培训,让包括提供者、使用者和受影响者群体在内的利益相关者,能够了解人工智能以及其运作的基本概念和技能,明确人工智能相关产品,及其用途、收益和风险。
4.4.2 美国
美国主要使用了命令型政策工具和引导劝诫工具。在命令型政策工具方面,如前文所述,近年来,美国政府在一系列行政法规用于规范人工智能技术的开发和使用,包括对AI安全、透明度和责任的要求。例如,2013年7月美国参议院提出的《人工智能与生物安全风险评估法案》,要求部长助理关注技术进步对公共卫生和国家安全的威胁,并评估人工智能开发导致的危害。在引导劝诫工具方面,美国通过其促进企业合理使用人工智能技术,并确保技术的安全和可靠性。2023年7月,美国政府从七家主要的人工智能公司——谷歌、微软、Meta、亚马逊、OpenAI、Anthropic和Inflection获得自愿承诺,以促进安全、可靠的人工智能发展。承诺包括在人工智能系统发布前进行内部和外部安全评估,分享已识别的风险信息,允许公众报告问题,以及披露内容由人工智能生成等等。
4.2.3 新加坡
新加坡政府使用的政策工具相对较少,目前主要使用引导劝诫的政策工具。尽管新加坡政府在《人工智能策略2.0》中提出了确保监管环境,但该监管环境是为适宜人工智能发展而建设的。新加坡主要使用引导劝诫的政策工具鼓励企业、组织和个人按照指导原则和最佳准则使用人工智能技术。
作者:聂晨、曹文垚,北京航空航天大学公共管理学院
本文 原载于《今日科苑》2024年第5期
本文有删节
| | | | | | | | | | | | | | | |更多精彩敬请期待
投稿邮箱: nais-research@cnais.org.cn
热门跟贴