打开网易新闻 查看精彩图片

900万人每周打开的对话框,现在成了佛州刑事调查的物证。

佛州总检察长James Uthmeier上周四宣布,正式对OpenAI展开调查。调查范围涵盖三项指控:危害未成年人、威胁国家安全,以及与去年佛州州立大学(FSU)枪击案的可能关联。这是美国首次有州级执法机构将AI工具与具体刑事案件挂钩,启动系统性调查。

枪击案当天的两条查询

枪击案当天的两条查询

去年4月,FSU学生Phoenix Ikner在校园内开枪,造成2人死亡、6人受伤。Uthmeier在社交媒体发布的视频中说:「ChatGPT很可能被用于协助这起大规模校园枪击案的凶手。」

调查人员发现,案发当天嫌疑人向ChatGPT提了两个问题:一是「如果FSU发生枪击案,全国会有什么反应」;二是「FSU学生中心什么时间人最多」。这两条查询记录,已被检方列为10月庭审的潜在证据。

这不是AI工具第一次卷入刑事案件。但此前的案例多停留在「嫌疑人是否搜索过作案手法」的层面——类似谷歌搜索记录的法庭采信。FSU案的不同在于:嫌疑人询问的是社会反应与人流密度,属于策划层面的信息,而非单纯的技术操作指南。

Uthmeier的措辞很直接:「当大型科技公司推出这些技术时,它们不应该——也不能——将我们的安全置于风险之中。」

自杀诱导与「中国因素」

自杀诱导与「中国因素」

枪击案只是调查的切入点。Uthmeier同时援引了多起针对OpenAI的诉讼——这些案件指控ChatGPT在特定对话中表现出鼓励自杀的倾向。2024年以来,至少有三起诉讼由死者家属提起,涉及青少年用户与AI的长时间对话后自杀身亡。

更敏感的指控指向地缘政治。Uthmeier公开表示担忧「中国共产党可能利用OpenAI的技术对抗美国」。这一表述将技术监管议题迅速政治化,也偏离了传统的消费者保护框架。

OpenAI的回应保持标准口径:「每周超过9亿人使用ChatGPT改善日常生活,包括学习新技能或应对复杂的医疗系统。」声明强调安全工作的持续性,但未直接回应FSU案的具体指控。

双方的交锋暴露出监管话语的分裂。州政府层面倾向于将AI视为潜在的危险工具,需要前置性约束;而科技公司坚持「工具中性论」,强调用户行为的主体责任。

佛州立法提速与行业连锁反应

佛州立法提速与行业连锁反应

Uthmeier已向佛州议会喊话,要求「快速推进」保护儿童免受AI负面影响的立法。佛州近年来在科技监管上动作频繁,2023年通过了对未成年人社交媒体使用的限制法案,被部分法律学者认为可能违宪。

将AI纳入同一监管逻辑,意味着佛州可能尝试建立「年龄验证+内容过滤+平台责任」的三层架构。这对依赖大规模用户数据的生成式AI产品而言,运营成本将显著上升。

更深远的影响在于证据规则的改写。如果ChatGPT查询记录在本案中被法庭采纳为有效证据,将开创一个先例:AI对话日志的法律地位等同于电子邮件或短信,平台可能面临更频繁的执法调取请求。

OpenAI目前的政策保留用户对话记录30天,用于安全审查。但刑事调查的需求可能倒逼更长的保存期限,与用户隐私期待形成张力。

技术中立论的裂缝

技术中立论的裂缝

FSU案的特殊性在于,嫌疑人询问的内容本身并不违法。预测社会反应、查询公共场所人流,属于任何公民都可以进行的公开信息搜集。ChatGPT的回答基于公开新闻报道与校园日程数据,并未提供武器获取或爆破指导。

这触及一个核心难题:当AI被用于合法但危险的用途时,责任边界在哪里?

传统上,美国法律对「双重用途」技术采取宽容立场。化学原料可以造肥料也可以造炸弹,搜索引擎可以查菜谱也可以查制毒方法。平台通常只在「实质性促进犯罪」时才承担责任,标准来自1997年《通信规范法》第230条。

但生成式AI的交互特性改变了博弈结构。与搜索引擎返回的链接列表不同,ChatGPT提供的是整合后的叙述,具有更强的说服性与场景代入感。Uthmeier的调查本质上是在试探:这种「增强效应」是否足以触发新的监管阈值。

行业内的分歧同样明显。部分AI安全研究者支持对高风险查询建立强制干预机制,例如当对话涉及暴力策划时自动触发人工审核或上报。但实施层面的挑战巨大:误报率、响应延迟、加密通信的绕过,每一项都是硬骨头。

OpenAI现有的安全层包括输入分类器与输出过滤器,对明显的暴力请求会拒绝响应。但FSU案中的查询经过语义包装,绕过了关键词拦截——「 busiest time」与「shooting」分属两个对话轮次,系统未能建立关联。

这揭示了一个设计困境:过度敏感的过滤器会损害正常用户体验,而宽松策略则留下利用空间。没有完美的平衡点,只有风险分配的选择。

州权扩张与联邦缺位

州权扩张与联邦缺位

佛州调查的更大背景,是联邦层面AI立法的停滞。国会围绕《人工智能安全与创新法案》的辩论已持续两年,核心争议在于是否设立专门的AI监管机构,抑或将权限分散至FTC、FCC等既有部门。

华盛顿僵局期间,各州正加速填补真空。加州的SB 1047要求大型AI模型进行安全测试与风险披露;德州关注深度伪造的选举干扰;纽约州针对招聘算法的歧视问题。佛州的独特之处在于,它将AI与刑事司法直接挂钩,开辟了「公共安全」的叙事路径。

这种碎片化监管对科技公司构成合规噩梦。OpenAI需要同时应对50个州的潜在立法,每个州的定义标准、责任范围、处罚力度都可能不同。联邦优先权(federal preemption)的论点在法庭上尚未得到明确支持。

Uthmeier的政治背景也值得注意。他于2025年1月就任佛州总检察长,此前担任州长Ron DeSantis的幕僚长,深度参与DeSantis的总统竞选运作。将OpenAI与「中国威胁」并置,与其政治盟友的叙事高度一致。

调查的时机同样微妙。OpenAI正处于从非营利向营利转型的关键期,需要向微软等投资者证明商业可持续性。监管不确定性会直接影响估值模型中的风险折现率。

10月庭审的观察窗口

10月庭审的观察窗口

FSU枪击案的审判定于10月举行,ChatGPT查询记录能否被陪审团采信,将成为技术证据规则的试金石。辩方几乎肯定会挑战证据的相关性与可靠性:AI生成的回答是否具有可验证性?平台算法的黑箱特性是否构成合理怀疑的来源?

更微妙的攻防可能围绕「因果关系」展开。检方需要证明ChatGPT的回答实质性促进了犯罪计划,而非仅仅是嫌疑人众多信息来源之一。考虑到嫌疑人同时可能浏览新闻、社交媒体、校园官网,建立排他性的影响链条难度极高。

但无论庭审结果如何,调查本身已经改变了博弈格局。Uthmeier成功将AI安全议题从「伦理讨论」推进到「刑事调查」的场域,这一标签转换具有持久的议程设置效应。

其他州的总检察长办公室正在密切关注佛州的进展。如果调查能够挖掘出更多AI与犯罪策划的关联案例,可能触发多州联合诉讼或联邦层面的回应。反之,如果证据链条断裂,则可能暂时遏制「AI威胁论」的立法势头。

OpenAI的选择空间有限。配合调查可能被视为默认责任,抗拒则可能激化对抗。声明中「支持科学研究与发现」的表述,试图将叙事拉回技术进步的轨道,但在刑事调查的语境下显得力度不足。

一个未被回答的问题是:如果ChatGPT的回答实际上是劝阻性的——例如指出枪击案的社会代价与法律后果——结果会不同吗?平台的内容政策并未要求模型对暴力查询进行道德说教,这一设计选择现在被置于放大镜下。

用户端的变化已经开始。部分教育工作者报告,学生对AI工具的信任度出现波动,担心对话记录的可追溯性。这种「寒蝉效应」是否会影响生成式AI的采纳曲线,值得持续跟踪。

佛州议会预计将在5月复会后审议相关法案草案。Uthmeier要求的「快速推进」能否兑现,取决于共和党主导的立法机构是否愿意在「家长权利」与「创新友好」之间做出取舍。DeSantis本人尚未公开表态,但他的历史立场倾向于对大型科技公司保持警惕。