打开网易新闻 查看精彩图片

一、美国数字科技伦理监管政策的最新布局与主要进展

(一)面向人工智能伦理监管的政策布局

人工智能伦理监管层面,美国国会通过立法的形式加快对人工智能伦理的监管与治理。其中,2021年1月1日,美国颁布《2020年国家人工智能倡议法案》(National Artificial Intelligence Initiative Act of 2020,简称NAIIA),该法案的主要目的是:第一,确保美国在人工智能研发方面的领导地位;在公共部门和私营部门开发和使用可信赖的人工智能系统方面引领世界。第二,为当前和未来的美国劳动力做好准备,以便在经济和社会的所有部门整合人工智能系统。第三,协调所有联邦政府机构正在进行的人工智能活动,以确保每个政府机构都能为其他机构的工作提供信息。与此同时,为确保该法案的实施,美国成立了国家科学技术委员会(NSTC)人工智能特别委员会推进人工智能相关的标准、指南与技术的研究(该法案还要求美国国家科学技术委员会(NSTC)在法案颁布两年内,与公共部门和私营部门合作起草《人工智能风险管理框架》(AI RMF)。美国国家标准与技术研究院(NIST)于2021年7月启动AI RMF意见征集工作;2022年3月形成AI RMF第一版草案;2022年8月形成AI RMF第二版草案;2023年1月26日AI RMF 1.0正式发布)。在拜登政府时期,同样也制定了自己的人工智能战略与监管计划。政府推出了ai.gov网站,该网站“致力于将美国人民与有关联邦政府活动的信息联系起来,推动可信赖的人工智能(AI)的设计、开发和负责任地使用”。美国还成立了国家人工智能研究资源工作组和国家人工智能咨询委员会。前者旨在使研究工具的获取民主化,以促进人工智能创新,而后者将为拜登总统和联邦政府机构提供有关人工智能研发的建议。

2019年2月,美国国防部(DOD)推出了人工智能战略与伦理监管政策,声称“以合法和合乎道德的方式使用人工智能,以强化负责任的价值观愿景和强化人工智能利用的指导原则”,并将“继续分享我们的目标、道德准则和安全程序,以鼓励其他国家负责任地开发和使用人工智能”。该部门还声称,在与利益相关方协商后,它将制定国防事务中人工智能伦理和安全规则,并将该部门的观点推广给更多的全球受众,为全球军事人工智能提供信息伦理。另外,美国州政府在人工智能治理方面都有自己的举措,在提出和通过监管方面比联邦政府更积极。例如,伊利诺伊州提出了《生物识别信息隐私法》(存在一些技术问题)和《人工智能视频采访法》。这两项法律都反映出美国对生物识别实践的审查越来越严格——第一部与数据隐私更直接相关,而第二部则对可能在面试过程中使用Hire Vue(HireVue成立于2004年,总部位于美国犹他州,是人工智能招聘的先驱之一,基于人工智能算法为面试者进行视频面试,其能够捕捉面试者的面部表情、肢体语言、语调甚至眨眼睛的动作,然后运用人工智能和IT算法进行评分与分析,以此来帮助企业筛选求职者)等人工智能服务公司提出了算法透明度的要求。华盛顿州则签署了《SB 6280法案》,其建立了基本的透明度和问责机制以备政府决定部署反乌托邦式的实时监控,特别是全面禁止面部识别时侵犯个人隐私和可能存在的算法偏见。总体而言,目前,美国有数十个独立的人工智能伦理、政策和技术工作组(团体)分散在各个联邦政府机构中,涵盖国防、民事和立法领域。虽然美国联邦政府推出了人工智能伦理监管政策,但依然存在不断演变的政策可能产生政策内容不完整、不同政策之间的监管配套举措不一致或彼此不兼容等问题。

从人工智能伦理监管的重点领域来看,美国聚焦于智能算法的社会伦理监管,侧重从算法研发设计到算法应用的全过程监管。2022年7月20日,美国众议院能源和商业委员会以53∶2的票数通过了《美国数据隐私和保护法》(American Data Privacy and Protection Act,简称ADPPA)的修正版。该法案旨在联邦政府层面建立面向人工智能算法决策过程中的消费者隐私数据保护法律框架,为美国消费者提供了隐私权保护和有效的补救措施。该法案将“算法”定义为“使用机器学习、自然语言处理、人工智能技术或其他类似或更复杂的计算处理技术的计算过程,能够自主作出决策或促进或辅助人类决策”,例如,为特定对象提供排名、排序、促销、推荐等服务或向特定个人提供信息服务等。根据该法案,相关实体和服务提供商必须评估算法的设计、结构和数据输入,以降低潜在的道德伦理风险。

(二)面向大数据伦理(数据伦理)监管的政策布局

美国面向大数据伦理监管的政策布局主要包括顶层设计和中层衔接,形成联邦政府主导的大数据伦理监管原则、战略实践和伦理监管具体行动。其中,顶层设计立足美国国家战略层面推进对数据的管理、保护和共享等工作。中层衔接是大数据伦理监管的关键环节,主要包括政策协调机构,首席数据官、机构网络和数据管理,法律和监管框架,技术能力建设、协作和知识共享等四个方面。在政策协调机构方面,美国白宫管理和预算办公室(OMB)下设的数据委员会,既负责协调数据战略的实施,也负责通知数据管理和使用的预算优先事项。在大数据伦理监管的政策布局方面,具有代表性的是2020年9月美国总务管理局(GSA)联同14个联邦政府机构共同发布的《数据伦理框架草案》,其提出了数据伦理的的七项基本原则:一是了解并遵守适用的法规、规定、行业准则和道德标准;二是诚实并正直行事;三是负责并追究他人责任;四是保持透明;五是了解数据科学领域的进展,包括数据系统、技能和技术等方面;六是尊重隐私和机密性;七是尊重公众、个人和社区。

美国在大数据伦理监管领域的国家战略与政策布局始于奥巴马政府时期,自2012年以来,美国作为全球大数据伦理监管与治理的领跑者,相继出台了系列法律法规推动大数据伦理监管。2012年3月,奥巴马政府颁布《大数据研发倡议》,其中提出大数据收集、分享过程中要注意隐私、安全和道德。在此倡议促进下,联邦政府机构、科研院所和社会企业在大数据研发、管理和应用等方面进行了积极探索,取得了明显进展。在特朗普政府时期,延续了奥巴马政府的大数据伦理监管与治理的政策思路,进一步挖掘大数据的正向经济与社会价值。2019年12月,美国白宫管理和预算办公室(OMB)发布《联邦数据战略2020行动计划》。该行动计划以政府数据治理为主要视角,描绘了联邦政府未来十年的数据愿景以及2020年需要采取的关键行动,目的是在保护安全、隐私和机密的同时,充分发挥美国联邦数据资产的潜力,加速使用数据执行任务、服务公众和管理资源。拜登政府时期持续加快对大数据伦理监管的政策布局,2021年10月25日,拜登政府发布《联邦数据战略2021行动计划》,在指导各机构应对共同的数据挑战过程中使用现有的协作渠道帮助实现人工智能研究的民主化并发展联邦劳动力的数据技能。2022年1月26日,美国白宫管理和预算办公室(OMB)发布了一项联邦战略,旨在推动美国联邦政府对网络安全采取“零信任”方法。在落实关于改善国家网络安全问题上,该战略意味着向前迈出的关键一步,其侧重于进一步推进数据安全措施以显著降低针对联邦政府数字基础设施的网络攻击风险。2023年3月31日,美国白宫科技政策办公室(OSTP)发布《促进数据共享与分析中的隐私保护国家战略》,正式确立了政府的大数据伦理监管目标,该目标支持保护隐私数据共享和分析(Privacy-Preserving Data Sharing and Analytics,简称PPDSA)技术(PPDSA技术是一种平衡数据收集、分析与伦理社会技术问题的解决方案,它利用隐私增强技术进行数据分析、获取数据价值,同时确保用户隐私、秘密安全),该战略关注PPDSA技术对经济和社会的外部性影响,尤其关注对弱势群体隐私的影响,提出了PPDSA技术需要保持透明度与包容性,尊重隐私、保护公民自由和权利。

从大数据伦理监管的重点领域来看,美国的政策布局主要集中于数据隐私领域。《美国数据隐私和保护法》为公司收集的个人信息制定国家标准和保障措施,包括旨在解决算法潜在歧视影响的措施。作为联邦政府对人工智能伦理监管需求增长趋势的重要回应的组成部分,《美国数据隐私和保护法》代表了美国在制定全面的数据隐私法方面取得了一定的进展。尽管近年来推出了其他几项涉及算法决策的联邦法案,但《美国数据隐私和保护法》是第一个得到两党支持和推动的法案,也是第一个将针对算法问责制和偏见的条款与解决数据隐私和安全问题的条款捆绑在一起的法案。该法案确定了几种不同类型的实体,这些实体具有额外的义务或豁免权。对于某些义务,相关实体按“影响”(影响力依据年度全球收入和受实体运营影响的数据主体数量而定)和“与数据主体的具体关系”(表现为直接关系、第三方关系或服务提供商关系等)进行分类。实体收集的“数据”被定义为“识别或链接或合理链接到一个或多个人的信息,包括派生数据和唯一标识符。”重要的是,员工数据和公开数据都被排除在这个定义之外。而且某些类型的数据被定义为敏感数据,包括政府标识符(如驾驶执照或社会安全码)以及与健康、地理位置、财务、登录凭据、种族、性别或阶级身份相关的数据。

(三)面向区块链伦理监管的政策布局

区块链结合了多种技术,为没有中央机构(例如银行)的多方交易提供可信、防篡改的记录。区块链可用于各种金融和非金融应用,包括加密货币、供应链管理和法律记录。2022年3月23日,美国国会政府问责局(GAO)发布《区块链——新兴技术为某些应用带来好处但面临挑战》报告,该报告提出区块链对某些应用程序有用,但对其他应用程序来说用处有限甚至存在问题。例如,由于其抗篡改性,它可能对涉及许多不一定相互信任的参与者的应用程序有用。即使对于少数受信任的用户来说,区块链的某些应用程序可能过于复杂,而传统的电子表格和数据库可能更有用。更为关键的是,区块链还可能带来安全和隐私方面的伦理挑战。从监管制度形式上,美国主要采取立法的形式对区块链伦理进行监管,商务部长与联邦贸易委员会(FTC)协商向国会提交一份关于区块链技术现状及其在消费者保护中应用的报告。2021年5月28日,美国众议院能源和商业委员会的立法听证会提出了《区块链创新法案》,该法案的伦理监管目标主要是减少欺诈以及提高商业交易的安全性。

从区块链伦理监管的重点领域来看,美国的政策布局主要集中于区块链透明度领域,这有助于阻止美国区块链公司转移到其他国家。明确的行业监管框架可以让个人和公司在美国更成功地参与区块链相关的商业活动,包括监管实体和开发商在内的决策者都可以使用监管沙盒等工具来进行区块链监管。例如,2018年10月至2021年4月,有11家企业加入了亚利桑那州金融技术监管沙盒。在联邦政府层面,消费者金融保护局(CFPB)创建了一个合规援助沙盒,在与该局共享数据的同时,企业可以在有限的时间内获得测试创新产品和服务的安全港。这可以为决策者提供机制,使其在面临监管不确定性时能够更好地履行法定义务。与此同时,决策者能够提供可协调的改进措施或提出明确预期的方案,以打击区块链相关商业中的非法活动。例如,美国财政部的金融犯罪执法网络(Fin CEN)近年来提出了一项规则,要求银行提交报告、保存记录并验证某些加密货币交易中客户的身份,以确保加密货币行业更好地应对反洗钱和国家安全风险方面的挑战。

二、美国数字科技伦理监管的主要主体与重点议题

(一)美国数字科技伦理监管的主要主体

美国联邦政府。美国联邦政府是美国数字科技伦理监管的主要主体,其主要采取国会立法的方式对数字科技伦理开展规范与引导。目前,美国联邦政府由6个机构和独立组织代表整个联邦政府开发人工智能技术或政策。第一,美国白宫科技政策办公室(OSTP)为总统办公厅提供经济、国家安全、国土安全等方面的建议。OSTP发布多个行政命令,确定联邦政府关于人工智能监管的总体政策目标。特别是在《2020年国家人工智能倡议法案》通过后,OSTP成立了国家人工智能计划办公室(NAIO),该办公室全面负责开发、使用和管理人工智能。第二,美国总务管理局(GSA)是提供政府信息资源的部门,为各政府机构带来了众多尖端技术,GSA的人工智能卓越中心(COE)为联邦政府机构提供服务,以确保联邦政府机构能够采用最佳的方式将人工智能技术运用到政府服务中。第三,美国国家人工智能安全委员会(NSCAI)获得2019年国防授权的特许和资助,并于2021年3月提交了最终报告,该报告就美国应如何在人工智能时代保持优势提出了战略性建议,为美国在人工智能时代遏制他国、赢得竞争提出了战略方针和行动路线图。第四,美国商务部(DOC)推进其下属各局跟进人工智能伦理监管政策的实施。联邦贸易委员会(FTC)就如何最佳定位、开发和提供人工智能产品和服务,以避免与现有和潜在的未来立法冲突,向企业发布了指导意见。第五,美国白宫管理和预算办公室(OMB)发布了如何规范人工智能应用程序的指南,该指南为发展和部署人工智能相关技术提供监管和非监管方法,减少发展人工智能技术的障碍。第六,美国两党人工智能核心小组,通过报告和个人法案制定相关法案。另外,美国国土安全部科学技术局(S&T)在数字科技伦理监管方面也作为重要的监管主体开展系列政策设计。

美国州政府。美国对数字科技伦理监管的主要主体还包括美国州政府,且相当程度上美国州政府对数字科技伦理监管具有较大程度的自主权与政策制定空间。在数字科技伦理监管的重点领域,美国州政府都有自己的举措,比美国联邦政府更积极更主动。在特朗普政府时期,美国联邦政府与国会通过的《2020年国家人工智能倡议法案》对人工智能伦理监管采取宽松策略,州政府层面的其他立法建议则采取更主动的人工智能伦理监管策略。例如,加利福尼亚州的《2020年自动决策系统问责法》则早于美国联邦政府。在自动驾驶汽车的监管方面,2011年美国内华达州就通过第一个关于自动驾驶汽车检测的立法,该法规定了自动驾驶汽车的检测条件,要求对自动驾驶技术进行监管。目前已有40个州通过了法律或行政命令规制自动驾驶汽车。在人脸识别技术的监管方面,美国联邦政府未出台统一的规定,而美国德克萨斯州、弗吉尼亚州、加利福尼亚州等都针对“深度伪造”行为出台了相应法案,走在了联邦政府的前面。

行业协会。美国行业协会在数字科技伦理监管过程中主要扮演参与者与协同者的角色。以人工智能伦理监管为例,美国联邦政府早期主要采取不干预的原则,主要是通过各州发挥自主性与独立性开展相关人工智能伦理监管的政策制定与政策执行,且社会各界对人工智能伦理监管尚存在广泛的争议性。美国商会(USCC)则呼吁对人工智能进行监管,以确保它不会损害经济增长或成为国家安全风险。美国人工智能促进协会(AAAI)在人工智能伦理监管中发挥了重要作用,其主要致力于促进人工智能的研究和应用。AAAI还旨在提高公众对人工智能的理解,提高人工智能从业者的教学和培训水平,并为研究规划者和资助者提供当前人工智能发展潜力和未来方向的指导。AAAI提出了专业性的人工智能道德原则以监管人工智能行为,具体包括:一是承认所有人都是利益相关方;二是避免伤害(负面后果);三是诚实守信;四是公平并采取行动不歧视;五是尊重产生新想法、发明、创意作品和计算工件所需的工作;六是尊重隐私;七是保密。

企业。美国在发挥联邦政府与州政府对数字科技伦理监管的引领与规范的同时,也充分发挥市场自我调节的重要功能,主要体现为充分尊重企业作为数字科技伦理治理的重要角色与功能。企业扮演数字科技伦理监管的参与者、互补者与协同者的重要角色,发挥对数字技术伦理治理的重要功能。以IBM为例,针对数字科技伦理的监管与治理,IBM组建了道德伦理委员会。其中,IBM的人工智能道德委员会是一个多学科机构,负责领导人工智能道德政策和实践的治理和决策过程。具体来看,IBM的人工智能道德委员会的伦理监管目标是在整个公司层面支持道德、负责任和值得信赖的人工智能文化和价值观,并指导公司技术层与业务层对人工智能系统进行道德开发和部署。与此同时,IBM遵循三个总体原则:第一,人工智能的目的是增强人类智能。第二,数据和见解属于其创造者。第三,人工智能技术必须透明且可解释。IBM坚信当人工智能成为企业的核心甚至支柱型技术或者业务时,人工智能的可解释性、公平性、鲁棒性(稳健性)、透明性和隐私性成为人工智能伦理监管的重要内容与追求目标,只有遵循上述原则才能构建真正合乎道德的人工智能工具。

(二)美国数字科技伦理监管的重点议题

道德式人工智能与透明、公平和可解释的算法。美国对人工智能伦理监管的重点在于着重塑造道德式人工智能与透明、公平和可解释的算法。既有研究普遍认为,从人工智能技术中获益将取决于创建和部署人工智能系统的能力,这些系统被认为是合乎道德和值得信赖的。但是,目前最大的挑战在于对什么是合乎道德和值得信赖的人工智能、如何识别人工智能以及如何在实践中证明人工智能的可持续性尚未达成共识。解决人工智能与人类社会可能存在的道德伦理冲突和可能的负外部性的可行方法是:基于透明、公平和可解释等概念框定人工智能算法开发、系统部署和技术使用的基本规范,通过人工智能的算法设计与算法验证能够证明该算法是透明、公平和可解释的。另外,人工智能的可解释性问题被称为人工智能的“黑匣子问题”,许多机器学习算法系统的响应无法用人们容易理解的术语解释。开发机器学习算法的标准方法产生了一组高度复杂的数据矩阵,包含数百、数千或数百万个连接节点,每个节点都包含一个权重或值。当机器学习模型被“训练”时,这些权重需要进行调整以提高模型的性能。这个动态的、复杂的系统不是为了去解释决策过程,也通常不能提供一个容易理解的原因解释,即无法说明它是如何达到任何给定的结果。目前,美国正对人工智能的可解释性问题开展系统性研究,例如,通过了美国国防预先研究计划局(DARPA)的“可解释人工智能”(XIA)计划,该计划的主要目的是开发可解释的人工智能系统,让算法开发与研究人员能够开发与设计更多可解释的算法模型,同时保持高水平的智能学习表现(预测准确性),并兼顾算法决策的过程性以及算法决策结果的准确性。

美国联邦政府对算法伦理监管的重点在于算法决策的公平性、算法透明度方面。2022年7月20日,美国国会众议院能源和商业委员会通过的《美国数据隐私和保护法》,其提出了算法决策的公平性和算法歧视监管的相关条款,在第207条明确提出“公民权利和算法”,根据该条款,相关实体和服务提供商不得以歧视或其他方式收集、处理或传输存在具有歧视性的数据,比如基于种族、肤色、宗教、国籍、性别或残疾状况的数据。且与美国大多数现有的州政府数据隐私法不同,《美国数据隐私和保护法》要求不同类型的公司评估某些算法程序、算法模型与工具的具体影响,并将这些评估结果提交给联邦贸易委员会(FTC)。在算法透明度方面,美国立法的重点在于监管算法设计开发层面的算法透明度,根据《美国数据隐私和保护法》的相关内容,相关实体和服务提供商必须评估算法在设计、模型结构和数据输入层面可能存在的伦理问题,以降低潜在歧视性影响的风险。更为关键的是,《美国数据隐私和保护法案》对算法可能存在的危害构建了负面清单,以负面清单式监管规避可能的算法负外部性。

数据隐私与数据伦理。美国在大数据领域的数据泄露事件引发的公共安全和个体隐私破坏等风险持续存在,根据德国研究型数据统计公司Statista的统计,美国的数据泄露事件数量从2010年的662起大幅飙升至2020年的1000多起。自2020年以来,每起数据泄露事件对公司造成的平均损失为50万美元。在大数据领域,美国数字科技伦理监管的重点在于数据隐私与数据伦理等方面,即充分尊重与保障数据权属下的个人隐私和公共安全。实际上,在面向大数据技术的科技伦理监管政策方面,美国自奥巴马政府以来持续重视数据伦理。例如,2012年3月,美国白宫发布的《大数据研究与发展计划》是美国在国家战略意义上正式出台大数据战略,并在2012年3月29日进一步发布《大数据研究和发展倡议》,提出需要增强大数据收集过程、使用分享过程中的隐私保护、安全与道德性,确保使用主体的使用过程能够合乎社会道德以及避免破坏个人隐私和公共安全。为进一步保障大数据应用过程中的数据隐私,美国自2013年以来持续公布系列关于数据隐私保护的相关行动计划。例如,2013年5月9日,美国联邦政府签署行政命令13642号《开放数据政策备忘录》,规定所有新生成的联邦数据应对公众开放,并恰当地保护数据隐私。在2014年5月9日公布的《美国开放数据行动计划》中,承诺用可发现的、机器可读的、有用的方式发布公开数据。另外,美国联邦政府发布的《大数据:关于算法系统、机遇和公民权利报告》提出,政府的重要任务在于对大数据与算法系统的系列潜在隐私风险问题进行监管。

在拜登政府时期,美国加快了对大数据伦理监管的政策布局,把数据隐私与数据伦理监管摆在了更为重要的战略位置,表现为在立法层面加快了面向数据隐私风险防范与追责体系的立法进程。例如,在《联邦数据战略》中所提及的第一项原则就是“伦理性治理”,并表示将把数据伦理治理作为一种组织原则和文化融入数据战略中。2020年9月,美国总务管理局(GSA)联同14个联邦政府机构共同发布了《数据伦理框架草案》,该草案指导联邦政府雇员在收集和使用数据时作出符合数据伦理的选择。2022年7月20日,美国众议院能源和商业委员会通过《美国数据隐私和保护法》的修正版,与其他数据隐私法相比,该法案以不同的术语和不同的范围开展全方位大数据伦理监管,主要体现为:第一,法案面向的实体范围发生重大变化,“涵盖实体”定义为收集、处理或传输数据并受《联邦贸易委员会法》约束的任何实体或个人,包括《通信法》规定的公共承运人,或者是非营利组织,实体范围涵盖了绝大多数企业。第二,法案面向的数据范围发生重大变化。“涵盖数据”包括任何识别、链接或合理链接到个人或设备的信息,还包括从此类信息中派生的任何数据或唯一标识符,如IP地址、目标广告标识符等。第三,特别注重保护未成年的数据隐私。法案将“儿童”定义为17岁以下的任何人。第四,对敏感数据进行了特别关注。“敏感数据”包括超出其他州隐私法认为敏感的数据类别。大多数法律认为种族、民族、基因数据、儿童数据等信息属于敏感数据,但《美国数据隐私和保护法》包括所有这些以及任何设备的登录凭据信息。且敏感数据的使用需要在收集、处理或传输之前就必须获得个人的肯定性明示同意。更为关键的是,《美国数据隐私和保护法》明确了数据持有者的责任义务范围,要求大数据持有者承担数据来源与处理过程信息披露、数据隐私产生的影响评估、数据自动收集与运算的影响评估、年度第三方评估认证等四项义务。

三、数字科技伦理监管的主要模式与机制选择

(一)以国会为主导的美国政府立法与标准引领型监管模式

与英国、欧盟、韩国等其他发达国家相比,美国对数字科技伦理的监管更依赖于政府立法主导的监管模式。实际上,美国在引入立法模式监管数字科技伦理也从犹豫阶段走向了坚定落实阶段,呈现出一个渐进式的监管模式转型。具体而言,在特朗普政府时期,政府机构被劝阻不要引入新的监管措施,因为担心这些措施会阻碍创新。从2021年初开始,可以看到有限治理的稳步出台。《2020年国家人工智能倡议法案》于2021年1月1日通过,要求建立多个机构来提供联邦政府层面的跨部门联合指导。其中,最著名的是国家人工智能计划办公室(NAIO),其负责支持人工智能研发、教育计划、跨机构规划和国际合作,负责监督和实施美国国家人工智能战略,协调联邦各政府机构、私营部门、研究部门和其他利益相关方在人工智能研究和监管政策制定方面的协调合作,最终为推进人工智能伦理监管政策制定与实施提供整体性部署和战略性指引。联邦政府机构也在推行其他规模较小的举措,例如,美国国家标准与技术研究院(NIST)制定的《人工智能风险管理框架》(AI RMF 1.0),该管理框架适用于设计、开发、部署或使用人工智能系统的组织。总体来说,美国对数字科技伦理监管的立法特点是强调促进创新以保持美国在数字科技特别是人工智能领域的全球领导地位,重新利用现有法律并引入目前有利于治理的软法,这意味着美国对数字科技伦理监管立法模式的重点依然是在规范数字科技良性生态发展的同时,以硬法与软法相结合的方式提高数字科技竞争力。

具体来看,在人工智能伦理监管方面,美国形成了政府立法主导的数字科技伦理监管模式,美国联邦政府持续重视对新一代数字技术监管的立法工作,高度重视人工智能领域的相关法律法规等制度建设。例如,第117届美国国会在2021年共提出了130项与人工智能相关的法案。在制定技术标准方面,美国联邦政府机构主动参与人工智能国际标准制定,以促进自愿的、行业引领的标准制定,促进人工智能创新。2019年2月,特朗普在签署的人工智能行政命令中要求美国国家标准与技术研究院(NIST)发挥在人工智能标准制定方面的重要作用。美国在负责人工智能标准制定的国际标准委员会中处于领导角色,但美国政策制定者应更加积极地应对其他国家主导的、限制性的、歧视性的标准方法。与此同时,美国联邦政府基于人工智能应用领域专业化原则分部门对人工智能技术开展伦理监管。例如,美国交通部(DOT)监管自动驾驶汽车的使用,美国食品药品监督管理局(FDA)监管基于人工智能的医疗设备(2021年1月12日,美国食品药品监督管理局(FDA)发布了该机构首个基于人工智能/机器学习(AI/ML)软件医疗设备(SaMD)行动计划,以促进对AI/ML医疗设备的伦理监管)。在算法伦理监管方面,《算法问责法2019(草案)》进入参众两院的立法程序,该草案是面向人工智能算法伦理监管的总体部署,特别是对人工智能算法应用广泛与频繁的大型互联网平台企业的算法伦理提出了明确规范与要求。在大数据伦理监管方面,美国同样地针对大数据伦理的具体专业细分领域出台相应的监管法案和政策布局。例如,2020年6月,美国参议院发布《数据问责和透明度法2020》,着重将算法对数据自动收集和自动运算决策纳入到伦理监管框架,提出消费者应当有权质疑收集数据的理由并要求人工对算法自动化决策进行审查和解释。

(二)行业协会和研究机构等社会组织多元参与型监管模式

区别于政府立法主导的数字科技伦理监管模式,各类行业协会和研究机构等社会组织在美国数字科技伦理监管特别是在人工智能伦理监管中发挥重要作用,在数字科技伦理监管方面更侧重于对人工智能技术的风险识别、风险评估,以及对监管原则、监管对象、监管内容等方面开展系列治理活动。

从研究机构来看,其对数字科技伦理监管主要是提出前瞻性的监管原则与监管指南框架,充分提出可预见性和可操作性的监管方案与相应监管模式。2023年1月26日,美国国家标准与技术研究院(NIST)正式发布了《人工智能风险管理框架》及配套使用手册。该框架旨在帮助人工智能系统的开发者、用户和评估人员更好地管理可能影响个人、组织、社会或环境的人工智能风险,提高人工智能系统的可信度,并提出了人工智能风险监管的跨周期与多元化参与模式,将相关活动分为应用程序背景、数据和输入、人工智能模型、任务和输出四个维度以及“人与地球”一个特殊维度(用以代表作为人工智能背景的人权、社会和地球等更广泛的福祉),并强调测试、评估、检验和确认在整个生命周期中的重要地位,监管目标是确保人工智能更加负责任以及更加可信,确保人工智能监管贯彻到全生命周期。

从行业协会来看,美国行业协会在美国联邦政府立法主导的数字科技伦理监管模式下,逐步形成“强社会参与以及影响型”监管参与模式,这种模式表现为以美国商会(USCC)主导的人工智能监管标准制定与倡议等形式推动美国联邦政府对人工智能领域的监管。2023年3月9日,美国商会(USCC)发布《人工智能委员会报告》,呼吁尽快制定人工智能法律监管框架,规避因技术进步导致的国家安全风险。该报告提出了人工智能监管治理框架的五大原则,既要注重个人权利、自由、隐私保护,又要确保美国人工智能领先地位的创新驱动。具体来看,五大原则包括:一是效率原则,评估现有法律法规的可适用性;二是中立原则,填补法律空白的同时避免过度立法和过度监管;三是比例性原则,采取以风险为本的监管方法和执法手段;四是共治性原则,注重分散化监管和协同治理;五是灵活性原则,鼓励私营部门进行风险评估和创新。在生成式人工智能(生成式人工智能是一种能够自动生成文本、图像和其他形式内容的人工智能技术,具备通用性、泛化性和迁移性等特征)领域,美国新闻/媒体联盟(The News/Media Alliance,简称NMA)在2023年发布了有关Chat GPT生成式人工智能的监管原则,提出生成式人工智能开发者与部署者必须尊重创作者对其内容的权利,尊重知识产权(知识产权原则)、生成式人工智能系统应该对出版商透明(透明性原则)、生成式人工智能系统的部署者应该对系统输出负责(责任原则)、生成式人工智能系统不应该创造或冒不公平的市场或竞争结果的风险(公平性原则)、生成式人工智能系统应该是安全的、避免隐私风险的(安全性)。

(三)企业以数字科技伦理嵌入公司治理的嵌入型自治模式

企业不仅是市场主体,更是技术创新与应用的主体。数字企业的主导技术是数字科技,以企业为中心构建企业自我驱动的数字科技伦理监管治理体系尤为重要。美国企业主导的数字科技伦理监管主要表现为企业以数字技术治理的方式推动数字科技向善和社会价值创造,其主要实现模式是将企业数字科技伦理融入企业价值主张、融入企业战略、融入企业技术创新管理过程,实现企业对数字科技伦理的有效治理,确保数字科技更好地融入社会。在人工智能算法伦理监管领域,Amazon、IBM、Microsoft近年来都强化了对人工智能算法的伦理监管,主要是通过企业主导制定相关人工智能伦理准则、人工智能伦理治理倡议等开展数字科技伦理治理。例如,Microsoft开发了六项人工智能的首要伦理原则:公平、可靠和安全、隐私和安全、包容性、透明度、问责制。Amazon在战略层面提出了“负责任地使用机器学习算法”,通过可持续的数字技术开发价值观影响平台用户的方式确保平台用户、其他互补者更负责任地开发与使用机器学习算法等各类工具。具体来看,Amazon提倡机器学习算法的生命周期包括设计和开发、系统部署、持续使用三个主要阶段,所有使用机器学习算法的行为都必须尊重法治、人权、公平、隐私的价值观。特别是负责任的机器学习算法领域是一个新兴技术快速发展的领域,因而机器学习算法的可持续开发与利用是算法技术伦理和算法技术向善的一个新的起点,需要鼓励用户考虑这些建议背后的价值观和意图,并鼓励平台用户与第三方一起负责任地开发或使用机器学习算法系统,确保机器学习算法在开发和使用过程中不破坏伦理道德和基本人权等。

企业开展数字科技伦理监管的另一种模式是基于企业主导的数字科技伦理委员会的方式开展数字科技伦理治理,这意味着企业主动将数字科技伦理治理面对的各类社会议题、重点难点问题放置于公司治理层面,特别是引入各类利益相关方参与机制以推动数字科技伦理议题的落实,强化企业董事会、战略委员会、高管团队等战略决策者对数字科技伦理的认知,确保企业在数字技术开发与利用过程中更好地保护利益相关方的利益,确保各类战略决策符合道德规范和伦理要求。例如,IBM是一家有110年历史的数字科技企业,其在2021年成立了人工智能道德委员会,以强化企业数字科技伦理治理。具体来看,在信任和透明原则的指导下,IBM通过涓滴策略来追求合乎道德的数字科技伦理,即其将监管重点聚焦特定的数字科技伦理监管领域,而非整体性和全面性的监管。具体来看,IBM人工智能道德委员会定期处理数字科技伦理议题,例如,人工智能的精确调节、种族司法改革、数据责任、人脸识别、算法偏见、可信任的人工智能系统等。Facebook是面向社交领域的数字平台,为应对用户舆论可能产生的道德伦理冲突以及对人权的破坏等潜在风险,Facebook主张以平台规则的全球统一性为逻辑起点开发一套网络社区舆论标准,包括数百条关于“仇恨言论”、欺凌、暴力、裸体、假新闻、垃圾邮件、版权等的规则,对可能违反Facebook规则的内容进行评估并作出决定。但是,Facebook在以统一规则治理的方式开展数字科技伦理治理的过程中也面临诸多的利益相关方压力,例如,当“黑人的命也是命”抗议活动在世界各地蔓延时,社会活动人士认为Facebook在处理其平台上的“仇恨言论”方面监管不力,导致员工抗议和广告商的广泛抵制。而且与处理其他有争议的内容相比,Facebook在减少“仇恨言论”方面较少作为,部分原因是针对“仇恨演讲”内容需要对文本语句的上下文敏感性进行智能判断,这对算法治理提出了较大的挑战。

作者:肖红军、阳镇,中国社会科学院工业经济研究所

本文转载自微信公众号社科院工业经济研究所,原载于《财经问题研究》2023年06期

本文有删节

| | | | | | | | | | | | | | | |更多精彩敬请期待

投稿邮箱: nais-research@cnais.org.cn

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片