打开网易新闻 查看精彩图片

▲平台“AI智能回答”给出关于律师李小亮的错误回答。图/澎湃新闻

“AI幻觉”再起风浪。

据报道,江苏南京一位律师发现,在一款搜索类App和网站搜索其个人信息时,“AI智能回答”竟然给出“该律师被判三年有期徒刑”的错误文字内容,并配有该律师身着律师袍的照片。

近日,这起“中国人工智能大模型侵权第一案”经法院两审终审,认定平台构成名誉侵权。这一判决结果,不仅是对个案当事人的法律救济,更是司法实践对AI技术应用边界与平台责任的一次重要界定。

随着人工智能技术快速融入社会生活,各类AI生成内容井喷式出现。AI平台公司在技术迭代上多追求“快”字当头,但法律规范、伦理约束却又要求“稳”字优先。这之间,难免出现矛盾甚至冲突。

本案中,平台方面辩称,“AI幻觉”具有不可预见性,且处于“技术发展初期”。这一说法虽反映了当前的技术现状,却混淆了“技术局限”与“责任豁免”的界限。

从法律逻辑看,该平台的AI智能回答并非简单信息聚合,而是经算法加工、图文合成后的定向输出。这些内容指向明确、负面信息具体,直接降低当事律师社会评价,故而构成名誉侵权。

即便AI存在偶发性错误,平台作为技术提供者与服务运营者,仍负有内容审核、风险防控、侵权止损的法定义务。技术可以有“幻觉”,算法可以有误差,但平台不能“视而不见”,责任不能为“幻觉”划定法外空间。

也因此,将“AI幻觉”纳入侵权评判、明确平台主体责任,或将成为生成式AI大模型侵权司法实践的重要标杆,对全行业均具有鲜明导向意义。

平台责任的核心,在于“把关”义务。无论是传统搜索还是AI智能问答,只要平台通过算法对信息进行了整合、加工并主动推送,就应当对内容的真实性、合法性承担相应的审核责任。

本案一审、二审法院均明确指出,该平台“AI智能回答”将错误文字与当事人照片合成发布,内容具有明确指向性和贬损性,已构成名誉侵权。

这一定性清晰表明:AI生成内容并非“法外之地”,平台不能以“技术中性”或“算法自主”为由推卸应尽的法律与社会责任。

值得关注的是,判决并未支持高额赔偿、仅要求书面致歉,也暗含了司法在鼓励创新与究责侵权上的平衡。

一方面,认定平台行为构成侵权,维护了公民人格权益;另一方面,考虑到技术发展初期的客观局限,以及平台事后采取了补救措施,仅判令其以书面形式道歉,未支持经济损失等诉求。

这种既明确责任边界、又避免过度惩戒的裁判思路,并非针对某一企业,而是着眼于行业健康发展。其传递出一个明确信号:法律鼓励技术创新,但创新必须以保障公民合法权益为前提。

判决的生命在于执行,司法的权威源于尊重。据报道,二审判决生效后,涉事平台未主动履行,经当事人申请,法院已启动强制执行程序。

AI产业的发展离不开法治的保驾护航,而法治的权威需要全社会共同维护。平台企业更应带头守法,将判决的履行视为一次深刻的法治教育,将司法的指引转化为内部治理的改进。这不仅是法律责任,更是行业企业应尽的社会责任。

类似纠纷并非个例,“AI幻觉”引发的侵权问题已具有普遍性。这也提醒整个行业,必须加快建立健全AI生成内容标识、溯源、纠错机制,从技术、运营、法律等多层面筑牢“防火墙”。监管亦需与时俱进,完善相关规范,为AI应用划清红线。

人工智能的发展必须走在法治与伦理的轨道上。平台企业作为技术的运用者和内容的提供者,必须牢记“权责一致”原则,主动扛起主体责任,以更严格的自律、更健全的机制防范技术风险。

也唯其如此,才能推动人工智能在赋能社会的同时,行稳致远,真正造福于民。

撰稿 / 王仁琳(法律学者)

编辑 / 马小龙

校对 / 张彦君