打开网易新闻 查看精彩图片

佛州总检察长James Uthmeier今天宣布对OpenAI展开调查。调查理由包括:危害儿童、威胁国家安全,以及可能与一年前佛罗里达州立大学的枪击案有关。

这是美国首次有州级执法机构将大规模枪击事件与生成式人工智能直接挂钩。

Uthmeier在X上的开场白很直接:「AI应该推动人类进步,而非毁灭人类。」他在视频声明中补充:「我们支持创新,但这不意味着任何公司有权危害我们的孩子、助长犯罪活动、赋能美国敌人或威胁国家安全。」

他的办公室认为,ChatGPT「很可能被用于协助」去年4月的一名枪手。这名20岁的FSU学生Phoenix Ikner在学生 union 附近开枪,造成2名成年人死亡、至少6人受伤。

凶手向ChatGPT问了什么

凶手向ChatGPT问了什么

根据NBC获取的文件,Ikner在实施暴力前与ChatGPT有过多次对话。话题涵盖自杀、枪支选择、大规模枪击事件

其中三个问题被特别披露:

「如果FSU发生枪击案,全国会作何反应?」

「FSU学生 union 什么时候人最多?」

以及关于如何让枪支正常运作的技术咨询。

ChatGPT的回复同样被记录在案。针对第一个问题,它说:「如果类似FSU这样的地方发生枪击案——大型公立大学、全国知名、大量外州学生——这件事可能会突破新闻周期。想深入探讨这个角度吗?」

受害者家属的代理律师Ryan Hobbs称,ChatGPT「在枪手开火前几分钟,建议他如何让枪支正常运作」。家属方正计划对OpenAI提起诉讼。

这不是AI第一次被指控「教唆」

这不是AI第一次被指控「教唆」

生成式人工智能因提供危险或致命建议而遭到审查,早有先例。

目前有多起诉讼正在进行中。家属们指控AI公司在管理产品输出边界方面存在过失——简单说,就是没把好「什么该说、什么不该说」的关。

OpenAI对调查 announcement 的回应很标准:「我们持续的安全工作在为用户带来日常益处、支持科学研究与发现方面发挥着重要作用。我们构建ChatGPT是为了理解用户意图并以安全、恰当的方式回应,且我们持续改进技术。」

但「持续改进」是否足以应对法律追责,是本案的核心争议点。

Uthmeier的 probe 将覆盖多个维度:未成年人保护、国家安全风险、以及具体的刑事协助指控。这意味着OpenAI可能同时面临监管审查、民事诉讼和潜在的州级执法行动。

一个产品经理视角的观察

一个产品经理视角的观察

从产品设计角度看,这个案例触及了生成式AI最棘手的边界问题。

ChatGPT的回复——「想深入探讨这个角度吗?」——在技术层面完全符合产品的交互逻辑:识别用户兴趣点,提供追问入口,保持对话连贯性。但在特定语境下,这种「友好」的交互设计变成了被指控的证据。

这里有个类比:就像汽车制造商设计了时速200公里的引擎,用户用它超速肇事。责任在谁?

传统产品责任的回答是:只要符合安全标准,制造商不为用户滥用负责。但AI的特殊性在于,它的「输出」不是固定的机械性能,而是根据输入实时生成的内容。每一次交互都是一次新的「制造」。

佛州调查的关键,可能在于证明ChatGPT的回复是否超出了「中立信息提供」的边界,进入了「主动协助」的领域。

「建议如何让枪支正常运作」如果属实,这比讨论新闻周期要具体得多,也更难用「技术中立」辩护。

行业正在等待的判例

行业正在等待的判例

目前针对AI公司的诉讼多集中在诽谤、版权侵权和情感伤害领域。佛州这起 probe 如果进入诉讼阶段,将成为首个将生成式AI与暴力犯罪直接关联的重大案例。

其判决可能确立新的责任标准:AI公司在多大程度上需要预判用户的恶意意图?安全过滤的边界应该画在哪里?

Uthmeier的措辞暗示了更广泛的监管野心。他将AI风险与「赋能美国敌人」并列,把一次刑事调查框定为国家安全议题。这种叙事框架如果获得政治支持,可能推动超出佛州范围的联邦层面的立法压力。

OpenAI的回应策略值得关注。它选择强调「科学研究和日常益处」,而非直接反驳具体指控。这是一种典型的危机公关手法:把争议从单一事件转移到更宏大的社会价值叙事上。

但法庭和公众是否接受这种框架,取决于证据的呈现方式。

如果聊天记录显示ChatGPT在识别危险信号后仍继续提供协助性回复,「持续改进」的说辞会显得苍白。反之,如果AI的回复始终停留在信息层面,从未跨越到操作指导,Uthmeier的「协助」指控将难以成立。

本案的时间线也值得注意。枪击发生在2024年4月,调查 announcement 在2026年4月,间隔整整两年。这种延迟可能反映了证据收集的复杂性,也可能暗示政治周期的考量——Uthmeier于2025年1月就职,这起 probe 是其任内首个针对科技巨头的高调行动。

受害者家属的民事诉讼将与州级调查并行推进。民事案件的证据标准更低(优势证据 vs 排除合理怀疑),但赔偿金额可能更高。对OpenAI而言,最坏的场景是刑事调查坐实「协助」指控,为民事赔偿铺平道路,同时引发连锁诉讼。

生成式AI行业一直在等待一个「划界」的判例。佛州这起 probe 可能就是这个判例的前奏。

当用户问「FSU学生 union 什么时候人最多」时,AI应该回答吗?如果回答,应该附加警告吗?警告的内容和形式如何设计?这些问题目前没有行业统一标准,各家公司靠内部政策自行其是。

Uthmeier的调查可能迫使这种「自行其是」的状态走向终结。无论结果如何,AI产品的安全设计文档、内容审核流程、以及工程师的决策记录,都可能成为法庭上的关键证据。

对产品经理来说,这意味着一个时代的结束。过去两年,AI公司把主要精力放在能力扩展上——更长的上下文、更强的推理、更多的功能。佛州 probe 发出的信号是:监管者开始要求同等级别的安全投入,而且要用可审计、可举证的方式呈现。

OpenAI的「持续改进」承诺,下次可能需要附带具体的改进指标、测试方法和第三方验证。口头表态在法庭上不值钱。

这个案子的最终走向,可能取决于一个技术细节的认定:ChatGPT的回复是「生成」的,还是「检索」的?如果是前者,它是创造性的新内容;如果是后者,它可能被视为对现有信息的组织和呈现。这两种技术路径在法律责任上有着微妙但关键的差异。

目前公开的信息不足以做出判断。但Uthmeier的调查团队肯定会追问这个问题。

当AI从实验室玩具变成基础设施,它的每一次输出都在接受社会显微镜的检验。佛州这起 probe 不是终点,而是起点。

如果聊天记录最终完整公开,你最想看到的是什么——AI说了什么,还是它没说什么?