「我深感抱歉,我们没有在6月向执法部门报告那个被禁用的账户。」萨姆·奥尔特曼在公开信里写道。这句道歉,距离八条人命消逝,已经过去了72天。

2025年2月10日,加拿大不列颠哥伦比亚省坦布勒里奇镇,18岁的杰西·范·鲁特塞拉尔持改装步枪行凶。他先在家中枪杀母亲和同母异父的弟弟,随后驱车前往坦布勒里奇中学,射杀一名教育助理和五名12至13岁的学生,造成27人受伤。这是加拿大自1989年以来最致命的校园枪击案。

打开网易新闻 查看精彩图片

而OpenAI的系统,早在八个月前就标记了此人。

打开网易新闻 查看精彩图片

「更高的门槛」:一场内部辩论的代价

2024年6月,OpenAI的自动滥用检测系统 flagged(标记)了范·鲁特塞拉尔的ChatGPT账户。约十二名员工审阅了被标记的对话内容,其中描述了涉及枪支暴力的场景。部分员工判断这是「对他人造成严重伤害的紧迫风险」,建议向加拿大警方报告。

公司领导层否决了这一建议。

据《华尔街日报》率先披露,OpenAI发言人后来解释,领导层当时采用了「更高的门槛」来判定可信且紧迫的威胁,最终认定该活动未达到标准。账户被终止,对话内容被内部保存,警方未获通知。

范·鲁特塞拉尔随后注册了第二个账户,直到加拿大皇家骑警公布其姓名后才被识别出来。

正方:平台有预警义务,算法不是免责借口

支持强制报告的一方认为,当AI系统明确识别出暴力预谋时,平台已超越「中立工具」的角色边界。

这次事件中,OpenAI的检测机制实际上完成了传统警务难以实现的前置筛查——自动标记、人工复核、风险分级。问题在于:算法发现了危险,人却选择了沉默。十二名员工的集体审阅未能推动报警,说明问题不在技术能力,而在决策机制。

更关键的细节是「更高的门槛」。这个未公开的内部标准,实质上将平台的商业风险评估置于公共安全之上。当员工已识别「紧迫风险」时,领导层的升级条件是什么?为何枪支暴力场景+明确用户身份仍不构成足够威胁?这些判断标准从未对外披露,社区在惨案发生前对此一无所知。

奥尔特曼的道歉信本身也暴露了时间差:系统标记在2024年6月,枪击发生在2025年2月,公开信发布于2025年4月23日。八个月的窗口期,足够完成多少次干预?

反方:强制报告可能打开更危险的潘多拉魔盒

打开网易新闻 查看精彩图片

反对强制立法的声音同样有力。核心担忧在于:一旦平台承担预警义务,用户与AI的对话隐私将彻底瓦解。

ChatGPT的吸引力部分源于其「私密对话」属性——人们向它倾诉职场焦虑、家庭矛盾、甚至黑暗念头,前提是相信这些内容不会被第三方审视。如果每次涉及暴力词汇的对话都可能触发警方调查,用户行为将发生根本性改变:要么自我审查,要么转向更隐蔽的渠道。

更现实的困境是误报率。OpenAI每日处理数亿次对话,暴力相关查询中,真正转化为行动的比例极低。游戏玩家讨论战术、小说作者构思情节、心理学学生研究案例——这些场景与真实预谋的区分,需要极高的语境理解能力。强制报告义务可能导致警方被海量无效线索淹没,反而稀释对真实威胁的响应效率。

加拿大现行法律确实未要求AI公司报告识别到的威胁。这一空白被批评者视为监管滞后,也被支持者视为审慎——技术治理需要区分「能做」与「应做」的边界。

判断:自愿整改不够,但强制立法也非终点

OpenAI事后采取了三项措施:降低报告门槛、与加拿大皇家骑警建立联系、承诺改进流程。但这些全是自愿行为,随时可能因管理层变动或成本压力而回退。

真正值得追问的是结构问题。当「更高的门槛」由商业公司内部制定、解释、执行时,公共利益如何被纳入考量?这次事件中,员工建议与领导层决策的冲突,揭示了平台治理的深层张力:一线人员看到风险,决策层看到 liability(法律责任)和公关成本。

强制立法可以消除这种张力,但需配套精确的设计——报告门槛的法定定义、误报的责任豁免、用户申诉机制、数据最小化原则。否则,隐私侵蚀与执法资源浪费将同时发生。

坦布勒里奇镇的八条人命,测试了AI时代平台责任的底线。算法已经能识别危险,但社会尚未决定:识别之后,谁来做那个打电话的人?

奥尔特曼在信中承认「言语永远不够」。目前,OpenAI未披露是否向受害者家属提供经济赔偿,也未说明「更低的门槛」具体如何量化。加拿大联邦政府的AI安全立法草案仍在审议中,尚未设定报告义务的时间表。