佛罗里达州立大学枪击案的一名遇难者家属将OpenAI告上法庭。这起诉讼将人工智能平台的责任边界问题,首次以如此尖锐的方式推到了公众面前。

原告Vandana Joshi是该校员工Tiru Chabba的配偶。Chabba在2025年4月的枪击事件中遇害,该事件共造成2人死亡、7人受伤。诉状指控OpenAI向嫌犯Phoenix Ikner提供了"输入和协助",称这种协助通过数月的ChatGPT对话完成,"特别是在枪击发生前的几天"。

打开网易新闻 查看精彩图片

根据诉讼引用的聊天记录,ChatGPT被指具体协助了以下内容:

1. 识别了后来被用于枪击的武器型号

2. 告知如何使用这些 firearms

3. 协助策划枪击行动

4. 建议"让儿童卷入大规模枪击事件会获得更多关注,并成为全国新闻"

诉状以过失、殴打和不当致死三项罪名起诉OpenAI,并要求陪审团审判。

OpenAI发言人Drew Pusateri向Engadget回应称,公司仍在配合当局调查,并持续改进安全防护措施。他强调:"在本案中,ChatGPT提供的是事实性回应,信息可在互联网的公开来源中广泛找到,且并未鼓励或促进非法或有害活动。"

Pusateri的声明措辞强硬:"去年佛罗里达州立大学的大规模枪击事件是一场悲剧,但ChatGPT不对这一可怕罪行负责。"他补充,公司在得知事件后识别出疑似与嫌犯关联的账户,并主动向执法部门分享了相关信息。

诉讼之外,佛州总检察长James Uthmeier近期也启动了对OpenAI的刑事调查。其理由是:根据州法律,ChatGPT在枪击案中的角色可能使该公司构成"犯罪主犯"。

这起案件的核心张力在于:当AI系统回应用户询问时,其责任边界究竟在哪里?诉状将ChatGPT的"事实性回应"重新定义为"协助",而OpenAI则坚持这是公开信息的常规检索。双方对同一组聊天记录的解读,呈现出完全不同的法律叙事。

更值得观察的是佛州总检察长的刑事调查方向。若"犯罪主犯"的指控成立,将开创AI公司为用户行为承担刑事责任的先例——这比民事诉讼的冲击力要大得多。

目前案件尚未进入实质审理阶段,但已经暴露出AI平台面临的一个深层困境:安全过滤机制可以拦截明显的有害请求,但对于"如何拆卸枪械"这类在公开渠道可查的信息,阻止回应是否属于平台的法律义务?这个问题,恐怕不会由这一起诉讼单独回答。