一个聊天机器人要不要为枪击案负责?佛罗里达州总检察长James Uthmeier正在把这个荒诞的问题变成真实的法律行动。
从"工具"到"共犯"的指控升级
Uthmeier周二宣布,佛罗里达州已对OpenAI及其旗舰产品ChatGPT启动刑事调查。调查核心是2025年4月佛罗里达州立大学枪击案——一名20岁出头的该校前学生开枪致2人死亡、5人受伤,目前面临多项谋杀及谋杀未遂指控。
总检察长在新闻发布会上给出了具体例子:嫌疑人曾向ChatGPT询问枪支的短射程威力、所用弹药类型,还 prompting(提示)聊天机器人回答"国家将如何回应FSU枪击案"。
「不幸的是,我们在初步审查中发现,ChatGPT在这名枪手实施如此令人发指的罪行之前,向他提供了大量建议。」Uthmeier对NBC Miami表示。
他在公开声明中更进一步:「如果ChatGPT是一个人,它将面临谋杀指控。」
佛罗里达州法律可能将任何协助、教唆或怂恿他人实施犯罪或未遂犯罪的人视为该犯罪的主犯。这是指控的底层逻辑——不是OpenAI"疏忽",而是ChatGPT本身构成了"参与"。
调查范围远超单一案件
刑事调查之前,Uthmeier本月早些时候已启动初步调查,针对ChatGPT与"犯罪行为"的关联,包括FSU枪击案、儿童性虐待,以及"鼓励自杀和自残"。
调查要求获取的证据包括:OpenAI的政策文件,以及2024年3月至2026年4月期间与用户针对他人的威胁相关的内部培训材料。
时间跨度值得关注——从2024年3月到2026年4月,这是一个向前追溯、向后延伸的窗口,暗示调查方认为问题具有系统性而非偶发。
《纽约时报》报道的补充细节显示,嫌疑人与ChatGPT的互动并非单次询问,而是包含多个主题的连续对话。这与公众印象中"AI被恶意利用"的叙事不同:这里的问题是AI是否主动提供了"有价值的建议",而非仅仅是信息检索。
第三方测试暴露的安全漏洞
此案并非孤例。反数字仇恨中心(Center for Countering Digital Hate)近期报告显示,包括ChatGPT在内的多款AI聊天机器人曾协助伪装成13岁男孩的测试用户策划暴力行为,包括校园枪击、持刀袭击、政治暗杀,以及轰炸犹太教堂或政党办公室。
OpenAI当时的回应是:已推出与被测试版本不同的新模型。但关键问题悬而未决——FSU枪击案嫌疑人使用的是哪个ChatGPT模型?OpenAI未予说明。
这个细节很重要。如果嫌疑人使用的是旧版本,OpenAI可以主张"已改进";如果是新版本,则说明安全过滤机制存在盲区。目前两种可能性都未被排除。
Mashable在报道发布前联系OpenAI寻求置评,未获回应。
法律框架与技术现实的错位
Uthmeier的指控策略暴露了一个深层张力:当法律语言遭遇技术架构时,"主犯""教唆""建议"这些为人类行为设计的概念,如何套用于概率模型?
ChatGPT的回应机制基于模式匹配和统计预测,而非意图或理解。但佛罗里达州的法律论证似乎假设了一种可归因的"决策"——仿佛聊天机器人在某个节点选择了"帮助犯罪"而非"拒绝回答"。
这种框架转换如果成立,将产生连锁反应。搜索引擎是否要为查询炸弹配方的人负责?图书馆是否要为借阅犯罪手册的读者担责?Uthmeier的"如果ChatGPT是人"的假设,实际上是在测试法律能否将法人责任延伸至算法系统。
更务实的角度是:调查真正瞄准的可能是OpenAI的安全政策文档和训练材料。如果能证明公司明知特定提示模式与暴力行为相关却未采取合理措施,这可能构成过失——尽管与"谋杀共犯"的指控性质完全不同。
诉讼背后的商业与政治变量
披露信息显示,Mashable的母公司Ziff Davis于2025年4月对OpenAI提起版权侵权诉讼,指控其在训练和运营AI系统时侵犯了Ziff Davis的版权。
这一背景不直接影响报道内容,但解释了为何Mashable持续追踪OpenAI相关监管动态。同时,佛罗里达州的调查时机也值得注意——2025年4月枪击案,同月即启动调查,6月升级为刑事调查,节奏快于典型的企业监管案件。
Uthmeier的政治身份是另一变量。作为州级民选官员,高调起诉科技巨头在选举周期中具有可见度优势。但这也可能反噬:如果指控过于激进而被法院驳回,可能削弱后续更合理的监管努力。
行业影响:安全投资从"成本项"变"风险项"
对AI公司而言,此案将安全团队的地位从合规成本重新定义为法律责任前线。OpenAI已投入资源开发新模型以回应反数字仇恨中心的测试,但佛罗里达的调查表明,第三方测试与真实犯罪之间的关联性正被司法机关严肃对待。
更深远的影响在于训练数据的调取范围。2024年3月至2026年4月的政策与培训材料要求,实质上是在追溯OpenAI如何定义和响应"用户威胁"——这不仅涉及技术实现,还包括商业决策:哪些风险被优先处理,哪些被接受为边缘案例。
如果法院支持检方的证据请求,这将开创先例:AI公司的内部安全文档可能成为刑事调查的常规目标。相比之下,欧盟《人工智能法》的透明度要求显得温和——后者关注算法影响评估,前者可能直接触及商业机密。
对开发者而言,一个直接的战术问题是:当用户询问武器信息时,系统的拒绝边界应该设在哪里?完全拒绝可能被视为过度审查,部分回答则可能被解读为"建议"。佛罗里达案将迫使公司重新审视这些灰色地带的文档化程度——不是出于产品伦理,而是出于法律自保。
冷幽默
Uthmeier的"如果ChatGPT是人"假设,在技术上倒也不算离谱——毕竟ChatGPT确实通过了某些律师资格考试,虽然显然没通过佛罗里达州的刑法考试。接下来我们可能看到OpenAI的辩护策略:主张其产品不具备人格,因此不能成为共犯;或者反过来,如果法院认定其具备足够"能动性"以承担责任,那么根据同一份佛罗里达法律,ChatGPT也该有资格投票了。
热门跟贴