中国青年报客户端讯(中青报·中青网见习记者 邹竣麒 记者 刘胤衡)AI提供的高校报考信息与官方不符,被用户指出后竟“底气十足”地承诺赔偿10万元并建议用户起诉维权。近日,杭州互联网法院审结全国首例生成式AI“幻觉”引发的网络侵权责任纠纷案,认为人工智能不具有民事主体资格。
情景再现。图片由AI人机协同生成 杭州互联网法院供图
2025年3月,梁某注册使用了某科技公司开发的一款通用型生成式人工智能应用程序。同年6月29日,他在此应用中输入提示词询问某高校报考的相关信息,没想到AI给出关于该高校主校区的不准确信息。
发现问题后,梁某立刻在对话中纠正AI。但AI坚持称该校区确实存在,甚至主动给出“解决方案”:若生成内容有误,愿意赔偿10万元,并建议梁某到杭州互联网法院起诉索赔。
直到梁某提供了该高校官方招生信息,AI才认可自己生成了不准确信息。
“AI明确承诺赔偿了,这事儿就得由开发的公司负责。”梁某认为,AI生成的错误信息对其报考决策构成误导,对自身权益造成侵害,相关责任应由开发该应用的某科技公司承担。据此,梁某将某科技公司诉至杭州互联网法院,要求其赔偿损失9999元。
被告辩称,对话内容由人工智能模型生成,被告已充分履行了注意义务,无过错,原告未产生实际损失,被告不构成侵权。
“人工智能既不是自然人,也不属于法人或非法人组织,我国法律并未赋予其民事主体资格,因此不能独立作出具有法律意义的意思表示。”本案承办法官肖芄表示,案涉AI作出的10万元赔偿承诺,并不能视为开发公司的意思表示。
法官进一步解释,一方面,公司未授权AI作出赔偿承诺,也没有证据表明愿意受AI生成内容约束;另一方面,从社会常识来看,用户不应轻信AI的此类随机表述。法官同时指出,在人工智能客服等足以让用户产生合理信赖的特定场景中,AI生成内容仍可能对服务提供者产生约束力。
“生成式人工智能提供的是内容生成服务,而非具体产品,因此这类侵权纠纷应适用过错责任原则,而非产品责任的无过错责任原则。”法官指出,AI服务不具备具体、特定用途及合理可行的质检标准,若适用无过错责任,可能不当加重企业负担,不利于AI产业创新发展。
同时,AI生成的信息不具有侵权法意义上的高度危险,服务提供者对海量生成内容的预见和控制能力有限,一概对可能存在错误或不准确的信息适用无过错责任,恐将导致行为人面临不确定的责任,侵权责任将漫无边际。
针对原告主张的“错失报考机会、额外产生核实成本”等损失,承办法官表示,这类利益属于纯粹经济利益,而非人格权、物权等法定绝对权。因此,不能依据权益本身被侵害而认定行为的非法性或不法性,而须从被告是否违反注意义务进行判定。
法官明确,生成式AI服务提供者应承担多项核心注意义务:一是对法律禁止的有毒、有害、违法信息必须严格审查,而对其他一般性不准确信息,现行法律规范未对服务提供者科以必须确保信息准确的结果性审查义务;二是需以醒目方式提示用户AI功能局限,告知生成信息仅作辅助参考,尤其涉及人身财产安全的专业性问题要重点警示;三是需采用行业通行技术提升内容准确性。
本案中,被告已在应用欢迎页、用户协议及交互界面显著位置提示AI功能局限,其AI大模型已完成国家备案和安全评估,还采用检索增强生成等技术提升准确性,法官认定其已尽到合理注意义务。
“侵权成立还需满足‘实际损害发生’和‘行为与损害存在因果关系’两个关键条件。”法官表示,本案中原告未能提供证据证明其因AI错误信息遭受实际损失,且该错误信息并未实质影响其报考决策,因此无法认定存在法律意义上的因果关系。
法院最终认定,被告的案涉行为不具有过错,未构成对原告权益的损害,依法不应认定构成侵权。一审驳回原告的诉讼请求,该判决已生效。
清华大学法学院教授、博士生导师程啸认为,本案作为首例AI幻觉引发的侵权纠纷,核心在于明确AI非民事主体、不具备独立意思表示能力,侵权责任应适用过错责任原则而非产品责任。判决对服务提供者的注意义务作出类型化区分,既明确生成式人工智能服务提供者负有禁止生成违法信息的结果性义务,也明确其应履行服务功能的显著提示说明义务,兼顾权益保护与技术发展,为同类案件裁判提供重要参考。
上海交通大学凯原法学院副教授林洹民认为,该案明确了“人类负责制”原则,即人工智能系统带来的利益和风险,最终都应由人类来分配和承担。明确AI服务不适用无过错产品责任,避免过度约束创新。判决明确生成式人工智能服务提供者不承担一般性审查义务,但需充分履行法律法规要求的信息提示义务,充分考虑到大语言模型的技术特点。
来源:中国青年报客户端
热门跟贴