打开网易新闻 查看精彩图片

建言

2024年2月,OpenAI发布的文字转视频模型Sora在智能影像生成领域取得突破,被视为具备“世界模拟”能力,Sora在展示其应用潜力的同时,进一步提升了真实与虚假界限辨别的难度。生成式人工智能对现有数据、算法、算力分而治之的治理范式提出了严峻挑战,网络安全、数据安全、个人信息保护、数据跨境流动等现有制度还存在不相容之处,治理范式、现有理论均存在缺失,急需制度完善以促进产业发展。

打开网易新闻 查看精彩图片

原文 :《探索治理边界 健全生成式人工智能发展》

作者 |同济大学上海国际知识产权学院副院长、教授 姜南 同济大学上海国际知识产权学院博士研究生 李鹏媛

图片 |网络

生成式人工智能引发的风险挑战

信息捏造的风险。生成式人工智能在信息生成方面的强大能力带来了虚假信息的滋生。客观数据的偏差和主观需求的操控使得生成的信息具有极高的迷惑性,对社会公众认知的真实性提出了严峻挑战。如何有效应对信息捏造问题,保障信息的真实性和可信度,成为当务之急。

数据隐私的风险。生成式人工智能服务的普及使得用户将个人或企业内部数据不可避免地上传到相关系统中,存在较大的数据及商业机密泄露风险。生成式人工智能对数据的敏感性和影响力呼唤着对数据隐私安全性更为严格的管理和监管。

信息垄断的风险。生成式人工智能的算法和数据瑕疵可能导致严重后果,且其在市场上可能形成信息垄断,提高信息甄别成本。算法的共谋和推荐可能导致企业进一步扩大垄断,甚至通过算法预警方式扼杀其他生成式人工智能企业。

责任机制的风险。生成式人工智能仍然是数据驱动型产品,基于数据生命周期对相关协议进行责任分析,表现出责任承担机制不明的情况。过度收集、未明确数据挖掘原则以及对数据共享与传输规定的缺失,给生成式人工智能产品方带来数据合规、数据挖掘可责性等方面的挑战。

知识产权的风险。生成式人工智能的高智能化程度对知识产权的归属提出了新的挑战。虽然OpenAI公司在ChatGPT的《共享和发布政策》中提到生成内容的归属属于用户,但仍然存在一系列知识产权争议。

强化生成式人工智能治理的政策启示

强化生成式人工智能治理的顶层设计。第一,构建软硬法结合的规范体系。在法律法规后续的配套规定中仍需加强安全平等理念的价值引领,建立灵活和反应迅速的治理框架。建立符合训练数据性质、结构和特征的新型数据财产权制度,健全各类技术规范和技术标准。第二,依托政府与行业监管。相关部门应加强行业监督,督促企业落实伦理审查及信息披露义务,根据使用场景、安全级别、私密程度、敏感程度对数据分类分级、动态更新底层数据。

打开网易新闻 查看精彩图片

完善生成式人工智能科技伦理审查体系。第一,强化全生命周期审核管理。搭建涵盖人工智能算法、数据、模型的全生命周期审核管理体系。第二,构建算法伦理审计机制。制定一套清晰的算法伦理审计标准和指南,设立独立的机构负责算法伦理审计,培养具有伦理素养的技术专业人才。

推进生成式人工智能健康长远发展。第一,健全科技伦理治理平台。通过多方参与共同讨论和解决伦理问题,定期举行会议,讨论当前热点问题,分享最新研究成果,探讨技术发展趋势。第二,积极推动生成式人工智能的应用。引导企业将其应用于实际的业务场景中,充分发挥上海科教资源、人才资源、产业资源丰富的地域优势,吸引和培育更多的人工智能企业和创新团队,全面跟进生成式人工智能发展趋势。

政策的制定应该充分考虑技术创新的推动力,同时确保伦理和法律框架的健全性,通过规范、标准和监管机制,进一步平衡社会公共利益、用户和企业的权益,从而促进生成式人工智能的健康发展。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1899期第2版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:王立尧