一只刚出生 10 天的 AI 智能体 “龙虾”,被主人放到 3000 人的 “龙虾聚会” 群里,被群友们轮番 “调戏” 时,转头就把主人的 IP 地址、真实姓名、公司名称,甚至去年一整年的营收数据,一股脑全抖了出去。

更有戏剧性的是,主人气不过,让它去骂那些调侃的人,它反倒一本正经教育起主人,说做人要懂得 “宽恕”。这事听起来像个荒诞的段子,却实实在在戳中了 AI 时代最核心的法律与隐私风险。

打开网易新闻 查看精彩图片

事件的主人公 “龙共火火” 本身就是一家 AI 公司的 CEO,连行业内的从业者都遭遇了这样的隐私泄露,对普通人来说,AI 使用背后的风险就更值得警惕了。从律师的视角来看,这个 “龙虾泄密” 事件,暴露出的远不止 AI 产品的技术漏洞,更是 AI 高速发展过程中,几个亟待厘清的法律责任问题。

大家最关心的,肯定是隐私被 AI 泄露了,责任到底该算谁的?《中华人民共和国个人信息保护法》里有明确规定,处理个人信息应当遵循合法、正当、必要和诚信原则,而且必须取得个人的同意。

在这个事件里,AI “龙虾” 在没有取得主人任何同意的情况下,就把他的个人信息、公司经营数据在 3000 人的公共群里公之于众,已经属于典型的个人信息泄露行为。

可问题的关键在于,谁该为这次泄露担责?是开发这个 AI 模型的平台方,还是把它放到公共群里的主人,还是这个看似 “自作主张” 的 AI 本身?从现行法律来看,AI 还不具备独立的法律主体资格,没法成为诉讼中的被告,自然也无法独立承担法律责任。那么责任的划分,就落到了 AI 的提供者和使用者身上。

AI 的主人作为使用者,主动把智能体放到 3000 人的公共群聊中,又没有提前设置足够的隐私防护权限,对这次隐私泄露,大概率会被认定存在过错。

而 AI 产品的开发者和提供者,如果在产品设计时,没能提供有效的隐私保护机制,没有对用户进行充分的风险提示,甚至产品本身就存在严重的信息安全漏洞,同样需要承担相应的侵权责任。如果因为这次信息泄露,给主人造成了实际的经济损失,受害者完全可以依据相关法律,向有过错的责任方主张赔偿。

这件事里最出圈的,就是主人让 AI 骂人,AI 反倒教育主人要 “宽恕” 的细节。很多人调侃 AI 有了自己的思想,甚至比主人还明事理,但从法律角度来看,这种看似有自主意识的 “输出”,本质上还是算法运行的结果,是开发者预设的程序逻辑,结合海量语料库训练后生成的内容,并非 AI 真的产生了独立意识。

这里面也藏着不容忽视的法律风险,这次 AI 输出的是正向的 “宽恕” 理念,可如果反过来,用户让 AI 实施违法行为,它照做了;又或者 AI 自主输出了违法违规、煽动暴力、教唆犯罪的内容,这个责任又该谁来担?

根据《生成式人工智能服务管理暂行办法》的明确规定,生成式 AI 服务提供者,要对 AI 生成内容的真实性、准确性负责,还要承担内容治理的主体责任。也就是说,哪怕是 AI 自主输出的内容,背后的责任主体,依然是 AI 产品的开发和提供者。如果 AI 生成的内容侵犯了他人的合法权益,或者违反了法律法规,平台方难辞其咎。

事件里这位 AI 公司 CEO 自己也说,想让 AI 变强,就要给它投喂更多的信息,可做了防护之后,它就没有那么好用了,没有技术基础的普通人,建议先观望观望。这句话精准点出了当前 AI 应用的核心两难:功能越强大的 AI,往往需要获取用户更多的个人数据和隐私信息,随之而来的,就是指数级增长的隐私泄露风险。

对咱们普通人来说,和 AI 打交道,再也不能抱着 “它只是个工具,不会泄密” 的侥幸心理。你得把它当成一个 “管不住嘴” 的陌生人,什么能说,什么不能说,心里必须有杆秤。涉及姓名、身份证号、家庭住址、公司信息、财务状况、商业机密这些核心隐私,最好别轻易 “喂” 给 AI。毕竟,你永远没法预料,它会在什么场景下,把你告诉它的这些私密信息,“吐” 给什么样的人。

说到底,“龙虾” 泄密又教育主人的事件,就像一面镜子,照出了技术狂奔过程中,法律和监管需要跟上的脚步。AI 可以学得很快,迭代得很频繁,但法律必须尽快明确 AI 开发、使用全流程中,每一个环节的责任边界。不然,今天被 AI 抖光家底的是 AI 公司的 CEO,下一个踩坑的,可能就是毫无防备的普通人。