国内首例因生成式AI“幻觉”引发的侵权案日前迎来一审判决,杭州互联网法院驳回原告梁某的诉讼请求,为AI生成内容的法律边界划出清晰参照线。

2025年6月,梁某使用一款AI平台查询高校报考信息时,AI生成了该高校主校区的不实内容。在梁某指出错误后,AI仍坚称校区存在,并回复“如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉”。直至梁某提供该高校官方招生信息,AI才承认生成内容不准确,梁某随即起诉该AI研发公司,要求赔偿9999元。

法院判决明确,现行法律框架下人工智能不具备民事主体资格,无法独立作出意思表示,案涉AI生成的赔偿承诺,既不能视为AI自主的意思表示,也不能被认定为平台的“代理人”或“传声筒”,不产生法律效力。

针对AI“幻觉”侵权的归责原则,法院指出生成式人工智能属于服务范畴而非产品,不应适用无过错的产品责任原则,需适用民法典规定的过错责任原则,即需判断平台是否存在过错。

法院进一步对平台注意义务进行分层界定:一是对法律禁止的有毒、有害、违法信息负有严格审查义务,生成此类信息即构成违法;二是需以醒目方式提示AI生成内容的局限性,对医疗、法律、金融等涉及人身财产安全的专业问题,应及时作出显著警示;三是需采用同行业通行技术措施提升内容准确性,达到市场平均水平。

经审查,该案中研发公司已完成大模型备案与安全评估,在应用界面、用户协议等多处履行了AI功能局限的提示义务,采取了当前技术条件下的必要措施保障内容准确性,不存在过错,不构成侵权。

上海交通大学凯原法学院副教授林洹民表示,该判决明确“人类负责制”原则,AI系统的利益与风险最终由人类承担,既充分考虑大语言模型的技术特点,避免过度限制生成式人工智能发展,也强调企业需不断完善信息提示方式,具有行业指引意义。

法院同时提醒,当前大语言模型本质为基于概率的语言生成系统,尚不具备事实真伪判断能力,“幻觉”难以彻底消除,公众应理性使用AI,避免轻信其生成内容,防止受到误导。

市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。

本文源自:市场资讯

作者:观察君