在数字化、网络化、智能化深入发展的时代,机器学习算法、大数据、云计算、AI专用芯片、开源软件框架等众多技术要素的汇聚发展,推动了AI领域取得巨大进展。这不仅使得AI在感知、理解、学习、决策等方面的能力持续提高,为人们带来了全新的产品和服务。
从消费互联网领域的算法推荐、AI生成内容(AIGC)、聊天机器人,到产业领域的无人驾驶汽车、AI医疗软件、AI质检,再到社会公共服务中的各种便民应用,AI对经济社会高质量发展的巨大价值不断得到彰显。
然而,随着AI技术的广泛应用,其带来的诸多科技伦理问题也引起了社会各界的高度关注。这些问题包括算法歧视、信息茧房、不公平的AI决策、个人信息滥用和隐私侵犯、AI安全、算法黑箱、责任承担、技术滥用(如大数据杀熟、AI造假和合成虚假信息)、工作和就业影响、伦理道德冲击等风险挑战。
因此,在AI技术发展应用的“高歌猛进”过程中,国内外各界都在同步推进AI治理,探索立法、伦理框架、标准和认证、行业最佳做法等多元治理措施和保障机制,以支持负责任的、可信的、以人为本的AI发展。数字经济应用实践专家骆仁童博士表示,随着人工智能的能力越来越强,其应用和影响也将越来越深远,具备社会责任的AI将变得越来越重要,因此需要建立和完善AI人工智能治理是走向智慧化、智能化社会的发展必由之路。
以AIGC产生的版权纠纷为例。 《》。 美国最有代表性的是“泰勒诉版权局案”,涉及的案件是关于完全由人工智能(AI)生成的内容是否享有版权的问题。原告Stephen Thaler研发了一款名为“Creativity Machine”的AI软件,并使用它自动生成了一幅绘画作品"A Recent Entrance to Paradise"。然而,美国版权局以“该作品没有人类参与创作”为由拒绝了其版权申请,因此,原告向哥伦比亚特区法院提起诉讼,要求更正版权局的决定。
值得注意的是,这个案件既是行政诉讼,又具有案件审理的特殊性。根据美国的《行政诉讼法》,法院在判断特定行政决定是否合法时,所依据的信息既不能多于行政机关做出决定时所掌握的信息,也不能少于这些信息。此外,这个案件采用了简易审理程序,表明原、被告对于案件事实本身不存在争议,法院只需解决涉及的法律问题。
在国内的类似案件中,原告李某利用开源AI软件Stable Diffusion生成了一幅绘画,并发布在自己的“小红书”主页中。被告刘某是一名创作爱好者,在“百家号”发布的诗歌中将涉案AI图像用作插图。原告就此向北京互联网法院提起诉讼,主张涉案AI图像构成美术作品,被告上述行为构成信息网络传播侵权等。由于未当庭宣判,无法得知法庭的最终判决结果。但从庭审现场来看,法庭高度关注“AI图像是否存在人类的创作贡献,进而获得版权法保护”。
关于自身对AI图像的创作贡献,原告整体强调:AI模型仅是工具,不能自主生成任何内容;涉案AI图像达到了美术作品应有的创作高度,一般公众均会认可其艺术价值;不能因为AI绘图模型相较于此前其他创作工具更先进,便否认自然人在创作过程的主导作用。
版权制度的发展与传播技术的演变密切相关。 一方面,新技术的出现带来了新的传播方式,从而丰富了版权权利类型;另一方面,新技术的出现也带来了新的传播载体,从而拓展了版权客体的种类。例如,印刷和造纸技术的发展催生了以“复制”为核心的权利体系,随后无线电、互联网、移动互联网等传播技术的更迭,推动了广播、信息网络传播、网络直播等新权利的产生,以及录音录像、数字音乐、视听动画等新客体的诞生。
在生成式AI崛起之前,创作技术对版权制度的影响相对较小。这是因为创作在整个版权制度中是一个前置环节,其主要目的是解决作品创作后的传播利用问题。在创作领域,人们能直观感受到的技术进步可能只有拍摄技术的进步催生出摄影、电影等作品。至于游戏视听领域的数字创作技术,只是延伸性的辅助技术手段而已,需要高度依赖人的创作构思。
但是,随着生成式AI被纳入人类的创作工具箱,版权制度不得不面对相对陌生的创作领域技术的挑战。数字经济应用实践专家骆仁童博士认为,生成式AI的版权争议,是因为AI的出现使得在作品最终形成过程中,人类的贡献不断衰减而机器的贡献不断提升,这直接冲击了人类的创作主体定位。
AI生成内容版权属性的核心判断在于:AI究竟是仅作为一种辅助工具,对人类的创作构思加以“映射呈现”,还是说“实质取代”了人类对作品创作元素的构思设计?这需要对AI模型的运作机制以及人类利用AI工具进行创作的具体方式加以评估。
通俗来讲,版权法保护的是人类的创作构思,即“对于创作元素最终和具体的选择安排”。特定AI生成内容能否构成作品,要具体分析AI使用者和AI模型在创作过程中的贡献。如果对于作品的创作空间、独创性的选择安排都是由使用者主导控制,没有给机器预留出发挥的空间,那么AI生成的内容基于人类的创作贡献构成作品,当属无疑;如果对于AI生成的内容,创作空间均由AI大模型自动填补,那么由于缺乏人类的创作性贡献,则很难被认定为作品受到保护。
但就AIGC现有的内容生成模式而言,使用者通过设计“提示词和模型参数”来生成内容,其实很难就使用者和AI模型的创作贡献大小加以准确判断。因为对于我国《著作权法》中作品独创性的判断,更合理的标准是“定性”层面的“独创性有无”而非“定量”层面的“独创性高低”。《》
不管如何,加快探索AI的知识产权保护规则已经势在必行。目前,AIGC技术深度融合互联网后,已能自主生产多种形式的内容,包括文本、图片、音频、视频、3D内容等。
国内外已在积极探索AI生成内容的知识产权保护规则。在国外,英国、欧盟、日本、南非等在考虑或者已经制定了专门的AI知识产权保护规则,如英国《版权、设计与专利法》中的计算机生成作品保护条款、欧盟《单一数字市场版权指令》中的基于AI技术的文本与数据挖掘版权例外条款等。中国的政策制定者积极创新监管方式和手段,通过“监管沙盒”(Regulatory Sandbox,详见后文介绍)、试点、示范应用等方式支持、促进AI新事物应用落地。
总体来说,标准化建设是AI治理的关键一环,国际社会纷纷提出落地举措。典型代表有欧盟的可信AI标准,美国国家标准与技术研究院(NIST)主导的AI风险管理、AI歧视识别等治理标准,英国的AI认证生态系统发展规划,IEEE的AI伦理标准等。在落地方面,IEEE已面向行业推出了AI伦理认证项目;英国希望通过5年时间培育一个世界领先、价值数十亿英镑规模的AI认证行业,通过中立第三方的AI认证服务(包括审计、影响评估、认证)来评估、交流AI系统的可信性和合规性。
实际上,中国非常重视AI领域的标准化建设,《国家标准化发展纲要》要求在AI、量子信息、生物技术等领域,开展标准化研究。近年来,各界持续推进AI治理领域的国家标准、行业标准、地方标准、团体标准等标准化工作。
2020年7月印发的《国家新一代人工智能标准体系建设指南》明确了AI标准领域的顶层设计,该指南将安全/伦理标准作为AI标准体系的核心组成部分,旨在通过安全/伦理标准为AI建立合规体系,促进AI健康、可持续发展。在2023年也有针对AIGC生成式人工智能提出规制条例。《》,相信未来,AI治理相关标准需加快制定并落地实施,从而为AI领域的技术创新和产业发展提供更多保障。
行业主动探索AI治理的自律措施,践行负责任创新和科技向善理念。 有效的AI治理需要政府、企业、行业组织、学术团体、用户或消费者、社会公众等多元主体的共同参与。
在行业层面,近年来,相关研究机构和行业组织纷纷提出AI的伦理指南、自律公约等,为企业的AI活动提供伦理指引。这方面的典型代表有中国人工智能产业发展联盟(AIIA)的《人工智能行业自律公约》和《可信AI操作指引》、北京智源人工智能研究院的《人工智能北京共识》和《人工智能产业担当宣言》、全国信息安全标准化委员会的《网络安全标准实践指南——人工智能伦理安全风险防范指引》等。
在企业层面,科技企业作为AI技术创新和产业应用的主体,担负着负责任地研发应用AI的重要责任。 在国外,从提出AI伦理原则,到成立内部的AI伦理治理机构,再到开发管理和技术工具甚至商业性的负责任AI解决方案,科技公司探索出了较为成熟的经验。主要包括:发布AI伦理原则,建立内部的AI治理组织,针对AI活动开展伦理审查或安全风险评估,对外披露算法相关信息、促进算法公开透明。
回顾历史,中国已经明确了发展与安全并重、创新与伦理并行的AI监管和治理思路。在支持、促进创新发展的同时,保障技术应用的安全、可靠、可控。持续推动AI治理实践的良性发展,让AI更好地造福经济社会发展,增进民生福祉,把科技向善推向更高水平。
数字经济应用实践专家骆仁童博士提出,AI的健康可持续发展,既要合理有效的监管,也要持续提升AI领域的数据供给和流通利用水平。实际上,AI在医疗、制造、金融等诸多领域的发展应用,所面临的一个主要问题就是数据获取利用问题,包括数据难以获取、数据质量差、数据标准不统一等。因此,未来AI的进一步发展,在很大程度上依赖于对数据与AI法律框架的持续完善。
随着科技伦理治理的建制化和法治化发展,对于科技企业而言,加强科技伦理治理会在一个高度技术化、数字化的社会,科技企业需要考虑将AI治理整体纳入其公司治理版图,作为与法务、财务、风控等既有模块同等重要的模块。
首先,在管理上,要建立AI伦理风险管理机制。AI伦理风险管理需要贯穿AI全生命周期,包括预设计阶段、设计开发阶段、部署阶段以及贯穿这几个阶段的测试和评估活动,以全面识别、分析、评估、管理、治理AI伦理风险。这有赖于企业建立相应的组织架构和管理规范,如伦理委员会、伦理审查流程和其他管理工具。政策制定者可以考虑出台这方面的政策指南。
其次,在设计上,需遵循以人为本的设计理念,将伦理价值、原则、要求和程序融入AI、机器人和大数据系统的设计、开发、部署过程。企业需要强调AI研发应用活动的多元背景和多元参与将,政策、法律、伦理、社会、哲学等多学科、跨学科人员引入技术开发团队。
最后,在技术上,需要持续探索以技术化方式和市场化路径应对AI伦理问题,打造可信AI应用。AI应用的很多问题诸如可解释性、公平性、安全性、隐私保护等,都是可以通过技术创新手段来解决的。同时也需要发现、识别AI伦理问题,开发AI审计工具,打造可信AI应用上将发挥重要作用。
如上所述,各国应继续深化人工智能国际治理合作,推动制定人工智能伦理和治理国际协议,形成共识广泛的国际人工智能治理框架和标准,加强技术、人才、产业等领域交流合作。中国深度参与全球科技治理,要抓住人工智能、数据等领域新一轮国际规则制定机遇,不断提出符合全球共识的人工智能治理方案,不断为全球数字治理和人工智能治理注入中国智慧。
商道童言(Innovationcases)欢迎点赞和分享哦!~~
免费电子书: | | | |
数字经济应用实践专家 骆仁童主讲课程
智慧应用 |《.......
数字应用 | ..
人工智能 | .
数字化转型 |.
金融类课程 | . .
思维与技能 |》..
宏观与趋势 |...
创新与创业 |.
热门跟贴