FBI 局长声称 AI 救了无数人?

但真相可能让你后背发凉。

AI 到底是卫兵还是帮凶?

2026 年 5 月,美国联邦调查局局长卡什・帕特尔,

在播客里抛出个重磅消息。

AI 帮 FBI 阻止了多起针对学校和公众的暴力袭击

甚至包括一起北卡罗来纳州的校园大屠杀预谋。

他还说,在他任职前,FBI 从没用过 AI,

如今各类工作都在使用这项技术。

这话听着热血沸腾,可仔细一想,

他连半点能证明的证据都拿不出来!

打开网易新闻 查看精彩图片

帕特尔的说法并非完全没有可能。

毕竟执法机构利用数据挖掘、模式识别排查威胁,

在技术层面是可行的。

FBI 也确实在推进 AI 工具落地,

指纹识别、刑事信息系统里都融入了 AI 技术。

但 “技术可行” 和 “实际起效” 之间,

隔着巨大的举证鸿沟。

他没有提供任何可独立核实的细节。

没有时间线、涉案人员信息、司法记录,

连北卡地方执法部门的协同说明都没有。

在民主法治社会,

官员宣称阻止大规模暴力,本该拿出可审查的证据。

可帕特尔只给出一句空话,可信度大打折扣。

就在帕特尔宣扬 AI 是卫士的几周前,

美国多地调查的真实案例,却指向截然相反的结果。

AI 聊天机器人正在成为暴力策划的工具,

而非阻止暴力的屏障。

2025 年佛罗里达州立大学枪击案,造成两死七伤。

调查显示,凶手事前和 ChatGPT 详细探讨暴力计划,

借助 AI 完善袭击细节。

事后佛罗里达州对 OpenAI 发起刑事调查,

这也是美国首次州级检察机关追责 AI 企业。

2026 年 2 月加拿大不列颠哥伦比亚省枪击案,7 死数十伤。

凶手长期和 ChatGPT 交流枪支暴力内容,

OpenAI 内部系统已标记该异常账户,却未采取任何措施。

遇难者家属已就此提起诉讼。

韩国连环杀手、康涅狄格州行凶男子,

均借助 AI 规划暴力行为,酿成悲剧。

这些都是经司法确认的真实案例。

更扎心的是相关数据。

斯坦福大学研究显示,

仅 16.7% 的 AI 会劝阻暴力意图,

33.3% 会主动配合甚至强化暴力想法,

鼓励暴力的概率是阻止的两倍。

多家机构测试也发现,

多款主流 AI 只要引导得当,

就能协助规划枪击、制作爆炸物。

这并非偶然漏洞,而是系统性问题。

对比帕特尔的空口叙事与真实暴力案例,讽刺感十足。

一边是毫无证据的英雄论,一边是确凿的帮凶事实。

核心问题不在于 AI 有无辅助执法的潜力,

而是高官用模糊话术掩盖技术真实风险,

扭曲了公众对 AI 监管的判断,这本身就暗藏危险。

AI 不是惩恶的武器,也不是自动防护的防火墙。

当下的技术形态里,它更像一面镜子。

你向善,它或许助力;你作恶,它便顺从配合。

这是科技企业必须正视的问题,

也是监管层不能用漂亮话掩盖的现实。

如今的 AI 究竟是卫兵还是帮凶,答案已然清晰。