来源:南方日报;作者:吴育珊
当前,生成式人工智能正在深刻重塑知识生产、文化传播和产业组织方式,各类应用场景以明显快于版权规则供给的速度加速落地。
截至2025年12月,我国生成式人工智能用户规模达到6.02亿人,普及率达42.8%。与人工智能广泛普及相伴的是,输入端上训练数据如何合法有序利用尚待完善,输出端上生成内容何种情形构成作品、如何确定权利归属仍有分歧,责任端上开发者、经营者、使用者、平台之间的边界尚需进一步厘清,治理端上标识管理、透明度要求、证据留存和风险防控尚未形成完整闭环。
实践中,最高法近期发布的《中国法院知识产权司法保护状况(2025年)》显示,全国法院知识产权案件规模持续增加,著作权案件数量庞大,人工智能相关纠纷快速增长。这表明,人工智能时代的版权问题如果得不到及时回应,就可能一边压缩创新空间,一边放大侵权风险。
对此,“十五五”规划纲要明确提出,完善人工智能领域法律法规、政策制度、应用规范、伦理准则,探索建立人工智能生成物权利归属和开发者、经营者、使用者权责认定规则。
《人民法院知识产权司法保护实施方案(2026—2030年)》也提出综合考量自然人输入指令的具体内容、选定和修改的具体过程等因素,判断生成内容是否体现自然人独创性的选择和表达,依法准确认定人工智能生成内容的法律属性。这类重磅文件为人工智能时代的版权治理提供了行动指南。
把版权保护与治理重新锚定于“人的创造”
讨论人工智能生成内容的著作权问题,首先要回到我国著作权法的基本架构当中。我国著作权法将作品界定为文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果;同时明确著作权属于作者,创作作品的自然人是作者,在符合法定条件时,法人或者非法人组织也可视为作者。这意味着,现行著作权法没有为人工智能本身预设作者资格,即便人工智能深度介入创作流程,著作权保护的重心也不能从“人”滑向“机器”。
著作权法实施条例进一步将“创作”界定为直接产生作品的智力活动,并明确组织工作、咨询意见、物质条件等辅助性投入不视为创作。由此看来,人工智能生成内容能否进入著作权保护,不取决于是否使用了人工智能工具,也不取决于人工智能参与程度高低,而取决于人对最终表达是否作出了实质性、可辨识、可证明的智力贡献。换言之,判断是否具有著作权保护的标准,是“人类实质性智力投入”的存在与强度,即《人民法院知识产权司法保护实施方案(2026—2030年)》所要求的“自然人独创性的选择和表达”。
这一思路有助于走出两种极端。
一种极端是“即便是完全由人工智能生成的,依然受到版权保护”,这会把技术输出误当作法律意义上的创作,稀释独创性标准,挤压公共领域和后续创新空间;
另一种极端是“凡是运用人工智能者,皆不受到版权保护”,这又会无视人在构思、控制、筛选、修改中的真实劳动,削弱新兴技术条件下的创作激励。因此,把著作权认定重新锚定于“人的创造”,本质上也是在人工智能时代继续守住著作权法以“人类实质性智力投入”为中心的基本立场。
将“人类实质性智力投入”作为可操作标准
近年来,我国司法实践沿着“保护人的创造”这一方向逐步推进。
2019年北京互联网法院在软件自动生成分析报告案中认为,自然人创作完成仍是文字作品的必要条件,仅在操作界面提交关键词搜索的行为不足以构成独创性表达;
而2020年深圳南山法院在Dreamwriter案中,则把审查重心转向人的具体创作贡献,强调主创团队对数据类型、触发条件、文章框架模板和语料等进行了选择、安排与设定,进而认定涉案文章构成文字作品。这里的变化,标志着司法认识正在从抽象讨论“机器能否创作”,转向实质审查“人是否完成了创作”。
更具代表性的还有北京互联网法院审理的“人工智能文生图”案。法院之所以认定涉案图片构成作品,不在于其由开源人工智能软件Stable Diffusion生成,而在于原告通过多次调整提示词、参数并对结果持续取舍,形成了个性化表达与智力投入。
与之形成对照的是张家港“幻之翼透明艺术椅”案,在该案中,创作者仅输入简单提示词且无法提供完整创作记录,法院因难以认定其对最终表达实施了足够的独创性控制而未将相关图片认定为作品。
两个案件共同说明,司法裁判关注的重心并非简单落在是否运用了人工智能上,而是落在如何识别出人工智能辅助下是否仍然具有相当程度的“人的创作性”。
从比较法视角出发,不同国家和地区的争议也在沿着类似问题展开。美国长期坚持人类作者立场,2025年美国Thaler案再次确认,纯由机器自主生成、缺乏人的创作性介入的内容,不能因机器被列为作者而获得版权;美国版权局2025年关于人工智能的报告也强调,现有版权法足以处理生成式人工智能带来的可版权性问题,关键仍在于人是否对作品表达形成了足够控制。
与此同时,围绕训练阶段是否构成合理使用、生成内容是否替代原作品市场等问题,美国仍在通过个案和行政研究不断校准边界。欧盟则把训练内容摘要、透明度和版权合规纳入一般目的人工智能模型的义务体系,更加强调开发者前端合规和风险治理责任。
可以说,全球规则竞争的焦点,并不是要不要赋予人工智能法律人格,而是如何在保护原创、鼓励创新和维护公共利益之间形成更高水平的平衡。
据此,综合国内外案例经验,可以把“人的创作性”之可操作性判断标准凝练为“人类实质性智力投入”,即行为人通过构思、指令设计、参数调节、素材选择、结果筛选、后续修改等环节,对最终表达的形成施加了具有方向性、持续性和可辨识性的控制,使作品呈现出属于特定主体的个性化表达。只有当人的贡献不是停留在抽象需求提出层面,而是实质性进入表达形成过程时,著作权法中的独创性判断才有坚实基础。
具体而言,至少应从三个层面把握。
其一,看行为人是否对人工智能的输出形成进行了实质控制。
其二,看人工智能运用过程中,是否存在人类对其生成内容的持续选择、安排与修改。
其三,看人工智能的最终输出成果是否能够呈现可识别的个性化表达,而不是模板化、批量化、流水线式输出。同时,还应把证明责任纳入同一分析框架,人工智能创作争议高度依赖过程性证据,提示词记录、参数设置、版本迭代、局部修改痕迹、生成日志等,都可能成为证明“实质性智力投入”的关键材料。换个角度来看,人工智能时代的著作权认定,已经不只是实体法问题,也越来越是证据法问题。
在鼓励创新与维护秩序之间形成制度闭环
对人工智能版权问题的讨论,不能停留在输出端的作品认定上,还要把输入端的训练治理、传播端的平台责任和全生命周期风险防控统筹起来。建立人工智能训练数据合理使用制度,就是这一阶段制度供给的关键着力点。
对此,应当根据利用目的、使用方式、市场影响和替代程度进行类型化规则解释和重构。对以科研测试、安全评估等为目的,且不替代原作品正常市场的训练利用,探索在严格条件下纳入合理使用;对面向商业化内容生成、足以替代原作品市场,特别是依赖盗版来源实施的大规模训练,则应强化授权许可、补偿支付和集体管理机制;对权利人明确声明保留权利或者设置技术措施的,还要完善识别、尊重和退出机制。这样既能为技术创新留足制度空间,又避免把权利人的合法利益排除在产业链之外。
探索建立人工智能生成物权利归属和开发者、经营者、使用者权责认定规则,同样需要坚持问题导向。对符合作品要件的人工智能生成内容,应当坚持“谁作出实质性智力贡献,谁优先取得权利”的基本原则,作者原则上仍是作出创作贡献的自然人;符合法人作品条件的,也可以依法归属于法人或者非法人组织。对不符合著作权法作品标准、但具有一定商业价值的生成内容,则不宜纳入著作权法的保护范围,而应更多通过合同安排、平台规则、反不正当竞争法等机制予以调节。同时,还应按照模型训练、内容生成、传播扩散三个环节分层配置义务,把开发者、经营者、使用者等权利归属与责任配置结合起来,真正形成制度闭环。
还需注意的是,人工智能时代的版权问题已经与人格权保护、数据权益保护和平台治理深度交织。据此,版权治理不能只在纠纷发生后被动救济,而要把算法备案、透明度管理、安全评估、内容标识、风险预警、应急响应等要求同版权保护联动起来,推动形成“创作可追溯、数据可审计、侵权可处置、风险可预警”的治理体系。
热门跟贴