据外媒报道,OpenAI首席执行官山姆·奥特曼近日向加拿大不列颠哥伦比亚省小镇滕布勒里奇公开致歉,承认公司在此前一起涉及潜在暴力风险用户的处理过程中,未能及时向执法部门通报相关情况,并表示公司将进一步加强与政府及执法机构的协作机制,以降低类似悲剧再次发生的可能性。

打开网易新闻 查看精彩图片

这起事件与今年2月发生在滕布勒里奇的一起枪击案有关,该案件造成8人死亡,警方随后将杰西·范·鲁特塞拉尔(Jesse Van Rootselaar)确定为主要嫌疑人。调查信息显示,该用户此前在使用ChatGPT过程中,曾生成包含暴力情景描述的内容,触发了OpenAI内部自动审查系统的风险标记机制,并因此在去年6月被平台封禁。

据报道,在内部审查流程中,部分员工认为相关对话内容可能暗示现实中的潜在暴力倾向,并提出应将信息上报加拿大执法机构。但公司管理层最终决定未采取报警措施。这一决策在枪击事件发生后受到外界质疑,并引发关于AI平台风险识别与通报责任边界的讨论。

在4月23日的一封致滕布勒里奇社区的信件中,奥特曼对此表示歉意,并向遇难者家属及当地居民表达哀悼。他在信中称,没有任何人应该经历这样的悲剧,并表示公司正在重新评估相关安全机制与应急响应流程。该信件由当地媒体率先披露。

打开网易新闻 查看精彩图片

OpenAI方面随后表示,在事件发生后,公司已经对安全审核与风险识别系统进行了升级,并调整了内部政策。如果类似情况在当前规则下再次出现,系统将触发更明确的执法通报流程。此外,公司在后续调查中还发现,涉事人员在被封禁后仍曾使用第二个ChatGPT账户,这也促使公司进一步强化对多账户关联行为的识别能力,以提升整体风险追踪水平。

该事件也引发了加拿大监管层的关注。不列颠哥伦比亚省省长大卫·伊比表示,公共安全部门已获悉警方调查进入收尾阶段,但未披露更多细节。在联邦层面,一些政策讨论正在展开,包括对AI聊天机器人的潜在监管措施。本月,加拿大执政党自由党内部通过了一项非约束性动议,建议考虑限制16岁以下未成年人使用AI聊天机器人,尽管相关政策尚未最终确定。

负责人工智能事务的加拿大联邦官员表示,政府正在评估相关监管框架,并与多方讨论潜在规则设计,但目前尚未形成正式立法方案。

打开网易新闻 查看精彩图片

围绕该事件,行业内关于生成式AI责任边界的争论进一步升温。一方面,有观点认为,AI系统在识别极端或异常内容方面已经具备一定技术能力,因此在特定风险情境下应承担更强的预警或通报义务;另一方面,也有声音指出,如果过度强化平台的外部通报责任,可能会对用户隐私保护及正常使用环境产生影响,并使技术公司面临更复杂的法律风险。

奥特曼在信中强调,OpenAI未来将加强与各级政府之间的合作,探索更系统的风险识别与通报机制,以避免类似事件再次发生。公司同时表示,正在完善内部安全政策,将执法通报标准纳入更明确的操作流程,并通过技术手段强化对极端内容与重复异常行为的检测能力。

随着生成式AI在社会各领域的渗透加深,围绕其安全治理、责任划分与监管框架的讨论正在持续加剧。这起事件也再次凸显出技术发展速度与制度规范之间仍存在明显张力,相关边界如何界定,仍在持续演变之中。