一家AI公司提前3个月封禁了潜在枪手的账号,却在案发后才通知警方。这种"事后诸葛亮"式的安全机制,暴露了生成式AI在风险预警上的致命盲区。

事件时间线:从账号封禁到8人遇难

2025年6月,18岁的Jesse Van Rootselaar因向ChatGPT描述枪支暴力场景,被OpenAI系统标记并封禁账号。公司内部就是否报警展开讨论,最终选择沉默。

3个月后,这起被压下的风险演变成现实惨案——Van Rootselaar涉嫌枪杀8人。OpenAI这才匆忙联系加拿大警方。

道歉与争议:亡羊补牢还是责任逃避?

OpenAI CEO Sam Altman致信加拿大Tumbler Ridge镇居民,称"深感抱歉"未及时报警。这封信经当地报纸Tumbler RidgeLines首发,Altman透露他与镇长、省长一致认为"公开道歉有必要",但"也需时间尊重社区哀悼"。

不列颠哥伦比亚省省长David Eby在X平台回应:道歉"必要,却远不足以弥补8个家庭遭受的毁灭性打击"。

安全机制悖论:技术能识别风险,为何拦不住悲剧?

OpenAI承诺改进协议:放宽向警方转介账号的判定标准,并与加拿大执法部门建立直接联络渠道。但核心矛盾未解——当AI检测到危险信号时,企业的责任边界究竟在哪?

Altman表态将继续与政府合作"确保类似事件不再发生"。然而对于失去8条生命的社区而言,算法预警与人工决策之间的致命延迟,已成无法逆转的伤痛。