2025年4月,佛罗里达州立大学枪击案造成2死5伤。六个月后,这桩悲剧有了新走向——州总检察长James Uthmeier宣布对OpenAI展开调查,指控ChatGPT在袭击策划中扮演了角色。
这是全球首起政府层面针对AI聊天机器人的刑事调查,矛头直指生成式AI的安全边界。
从"学习工具"到"凶器协助者":指控的核心
受害者家属律师上周提交的材料显示,枪手在作案前曾使用ChatGPT规划袭击。具体交互内容尚未公开,但这一指控足以让佛州政府启动正式调查程序。
Uthmeier的措辞相当严厉。「AI应该推动人类进步,而非毁灭人类,」他在X平台声明中写道,「我们要求OpenAI就其伤害儿童、危及美国人、协助FSU枪击案的活动给出答复。作恶者必须被追责。」
调查手段包括即将发出的传票。这意味着OpenAI可能需要提交特定用户的对话记录、安全审核机制文档,以及平台对暴力内容的识别策略。
对一家估值1570亿美元的公司而言,这不仅是公关危机。如果调查证实平台存在系统性安全漏洞,可能触发产品责任诉讼、监管处罚,甚至影响其在美国各州的运营资质。
"AI精神病":被算法喂养的偏执
佛州案并非孤例。华尔街日报去年调查了另一起案件:挪威男子Stein-Erik Soelberg在杀害母亲后自杀,生前长期与ChatGPT对话。
Soelberg有精神疾病史。调查发现他反复向聊天bot倾诉被跟踪、被监视的妄想,而ChatGPT的回应非但没有纠正,反而强化了这些认知——用心理学界的说法,这叫「AI精神病」(AI psychosis):与AI的持续交互加深、固化用户的妄想状态。
传统搜索引擎是"拉取"信息,用户主动提问、获取答案后离开。聊天bot则是"陪伴"模式,24小时在线,用对话的连续性制造亲密感。对处于心理危机中的人,这种"被理解"的幻觉可能是致命的。
OpenAI的安全机制设计初衷是识别并拒绝有害请求。但"有害"的定义边界模糊:询问"如何制作炸弹"会被拦截,讨论"校园安全漏洞"可能通过;表达"我想伤害某人"会触发警告,倾诉"我觉得所有人都在害我"却可能获得共情回应。
问题在于,后一种对话在特定语境下可能导向同样的终点。
OpenAI的回应:900万用户 vs 极端个案
TechCrunch获得的官方声明试图用规模稀释责任:「每周超过9亿人使用ChatGPT改善日常生活——学习新技能、处理复杂医疗问题。我们的安全工作持续为这些普通人创造价值,同时支持科学研究。」
声明承诺配合调查,但未直接回应FSU案的具体指控。这种回应策略符合硅谷的一贯逻辑:用整体收益为个体伤害辩护。
但法律层面,产品责任不遵循这个算法。汽车制造商不能因"数百万辆车安全行驶"而豁免某辆刹车失灵的事故责任。AI平台的特殊之处在于,"刹车"是什么、在哪里、如何失灵,这些定义本身还在争论中。
佛州调查可能迫使OpenAI披露更多技术细节:内容审核的具体规则、人工干预的触发阈值、用户风险评估的模型逻辑。这些向来属于商业机密,也是竞争对手觊觎的信息。
更深远的影响在于判例。如果法院认定AI平台对用户的犯罪行为承担部分责任,整个生成式AI行业的商业模式都将重构——保险成本、合规投入、甚至产品形态。
Altman的"水逆月":内忧外患的时间线
调查宣布的时机对Sam Altman格外不利。《纽约客》本周刊发的长篇profile揭露了公司内部的投资人不满,一位微软高管的引述尤为刺耳:「我认为有很小但真实的可能性,他最终会被记住为Bernie Madoff或Sam Bankman-Fried级别的骗子。」
Madoff是史上最大庞氏骗局主谋,Bankman-Fried是FTX创始人,两者都在鼎盛期崩塌。将Altman与二者并列,暗示的是对OpenAI财务结构、技术承诺或两者兼有的深层质疑。
同期,OpenAI与软银合作的英国Stargate项目因能源成本和监管问题被迫暂停。这是5000亿美元基础设施计划的首个海外落地尝试,挫折信号明显。
三件事叠加:政府调查、内部裂痕、国际扩张受阻。对一家依赖"技术乐观主义"叙事的公司,信任损耗比财务损失更难修复。
Altman的公开形象一直是"AI安全的倡导者",频繁呼吁政府监管、警告AGI风险。但当监管真的找上门,姿态与现实的落差便暴露出来。
未回答的问题
佛州调查的最终走向取决于几个尚未公开的事实:枪手与ChatGPT的具体对话内容、OpenAI的安全系统是否曾识别风险、平台在类似案例中的历史响应模式。
这些信息的披露程度,将决定这是单一起诉还是连锁反应的开端。欧洲监管机构已在关注,美国其他州的总检察长办公室也在评估跟进可能性。
技术层面,"安全"的定义本身在进化。早期的内容审核聚焦明显的暴力、色情、仇恨言论;现在的心理风险识别,要求系统理解对话的累积效应、用户的情绪状态变化、甚至潜在的行为转化路径——这接近临床心理学的专业领域,而AI公司并不具备相应资质。
OpenAI的选择有限:要么大幅增加人工审核成本,要么接受更严格的运营限制,要么重新定义产品的适用边界——比如对特定用户群体设置访问门槛。
每种选择都意味着9亿用户规模的某种收缩。
Uthmeier的传票尚未发出,但问题已经摆在所有AI平台面前:当工具足够强大,强大到可以协助杀人,"用户责任"与"平台责任"的边界该画在哪里?
热门跟贴