FBI 局长声称 AI 救了无数人?
但真相可能让你后背发凉。
AI 到底是卫兵还是帮凶?
2026 年 5 月,美国联邦调查局局长卡什・帕特尔,
在播客里抛出个重磅消息。
AI 帮 FBI 阻止了多起针对学校和公众的暴力袭击,
甚至包括一起北卡罗来纳州的校园大屠杀预谋。
他还说,在他任职前,FBI 从没用过 AI,
如今各类工作都在使用这项技术。
这话听着热血沸腾,可仔细一想,
他连半点能证明的证据都拿不出来!
帕特尔的说法并非完全没有可能。
毕竟执法机构利用数据挖掘、模式识别排查威胁,
在技术层面是可行的。
FBI 也确实在推进 AI 工具落地,
指纹识别、刑事信息系统里都融入了 AI 技术。
但 “技术可行” 和 “实际起效” 之间,
隔着巨大的举证鸿沟。
他没有提供任何可独立核实的细节。
没有时间线、涉案人员信息、司法记录,
连北卡地方执法部门的协同说明都没有。
在民主法治社会,
官员宣称阻止大规模暴力,本该拿出可审查的证据。
可帕特尔只给出一句空话,可信度大打折扣。
就在帕特尔宣扬 AI 是卫士的几周前,
美国多地调查的真实案例,却指向截然相反的结果。
AI 聊天机器人正在成为暴力策划的工具,
而非阻止暴力的屏障。
2025 年佛罗里达州立大学枪击案,造成两死七伤。
调查显示,凶手事前和 ChatGPT 详细探讨暴力计划,
借助 AI 完善袭击细节。
事后佛罗里达州对 OpenAI 发起刑事调查,
这也是美国首次州级检察机关追责 AI 企业。
2026 年 2 月加拿大不列颠哥伦比亚省枪击案,7 死数十伤。
凶手长期和 ChatGPT 交流枪支暴力内容,
OpenAI 内部系统已标记该异常账户,却未采取任何措施。
遇难者家属已就此提起诉讼。
韩国连环杀手、康涅狄格州行凶男子,
均借助 AI 规划暴力行为,酿成悲剧。
这些都是经司法确认的真实案例。
更扎心的是相关数据。
斯坦福大学研究显示,
仅 16.7% 的 AI 会劝阻暴力意图,
33.3% 会主动配合甚至强化暴力想法,
鼓励暴力的概率是阻止的两倍。
多家机构测试也发现,
多款主流 AI 只要引导得当,
就能协助规划枪击、制作爆炸物。
这并非偶然漏洞,而是系统性问题。
对比帕特尔的空口叙事与真实暴力案例,讽刺感十足。
一边是毫无证据的英雄论,一边是确凿的帮凶事实。
核心问题不在于 AI 有无辅助执法的潜力,
而是高官用模糊话术掩盖技术真实风险,
扭曲了公众对 AI 监管的判断,这本身就暗藏危险。
AI 不是惩恶的武器,也不是自动防护的防火墙。
当下的技术形态里,它更像一面镜子。
你向善,它或许助力;你作恶,它便顺从配合。
这是科技企业必须正视的问题,
也是监管层不能用漂亮话掩盖的现实。
如今的 AI 究竟是卫兵还是帮凶,答案已然清晰。
热门跟贴