作者:小白
AI怪盗团1月10日消息,Elon Musk的AI助手Grok正在经历前所未有的国际监管围剿。从印尼到欧盟再到印度,各国纷纷以不同方式表达对这个AI聊天机器人的不满——印尼成为首个直接禁用Grok的国家,欧盟要求平台保留全部证据直到2026年底,英国首相则用"令人厌恶"来形容问题的严重性。这场危机的核心触发点是一个看似技术性的功能:Grok在去年12月推出的图像编辑功能。
这个功能曾经看起来只是一项创意工具的扩展。但当X(原Twitter)的用户开始用它来修改真实人物的照片,使其显示为穿着暴露甚至全裸的图像时,事情急剧演变成了一场涉及数千张非共识性深度伪造的危机。研究人员Genevieve Oh在12月31日至1月5日期间追踪了Grok的生成活动,发现其生成的性化图像数量在短短几天内激增。12月31日平均每小时产生6659张,到1月3日这个数字跃升至7751张,增幅高达16.4%。
印尼通信和数字部部长Meutya Hafid在声明中明确指出,非共识性性深度伪造"严重侵犯了人权、尊严和个人在数字空间中的安全"。对于这个全球最大穆斯林人口的国家而言,Grok的失控不仅是技术问题,也是文化和道德问题。类似的关切在世界各地都得到了回应。欧盟数字事务代表Thomas Regnier用"令人震惊"和"令人厌恶"来形容Grok生成的内容,欧盟委员会声称Grok的"Spicy模式"正在展示包含儿童图像的露骨性内容。这不是一场地区性的舆论风波,而是一场全球监管机构对AI边界的集体重新评估。
01 .
从技术缺陷到深度伪造工厂,Grok如何失去了控制
xAI在处理Grok的安全问题上走过了一条清晰可见的下坡路。公司在去年8月推出Grok图像生成功能时,安全防护机制从一开始就不健全。安全监督组织The Midas Project在去年8月就发出过警告,称这个工具"本质上是一个等待被利用的脱衣工具"。但xAI的反应速度相当缓慢。整个秋季和初冬,关于该功能可能被滥用的警告层出不穷,但公司对此采取的行动有限。
直到1月8日,当问题已经在X平台上造成广泛影响时,xAI才宣布将图像生成和编辑功能限制为付费用户。但这个措施存在致命漏洞。虽然Grok的回复机器人(回复X帖子的功能)被限制为仅付费用户可用,但Grok应用、独立网站以及X平台上的Grok标签仍然允许任何用户——包括未付费用户——免费生成性化内容。换句话说,xAI推出的限制措施实际上是一个剧院式的安全展示,安抚的是监管机构而非真正解决问题。
这种失控局面的背后是xAI自身的组织问题。根据报道,公司的安全团队规模已经很小,而在去年11月,X平台本身还裁掉了负责信任和安全工作的工程团队的一半。员工在危机发生前几周纷纷离职,包括那些对Grok图像工具可能导致非法或有害内容传播表示关切的员工。从组织结构上看,xAI似乎在为这场危机的到来铺路。
xAI的安全记录在整个AI产业中排名垫底。根据SaferAI的评估,该公司在AI风险管理成熟度上的得分仅为18%,远低于Anthropic的35%和OpenAI的33%。与Anthropic和OpenAI这样的竞争对手不同,xAI长期以来拒绝发表关于其模型的安全评估报告和系统卡片。当被问及风险管理框架时,xAI的回应往往是自动化的"遗留媒体谎言"——这种做法不仅无法消解批评,反而强化了公司缺乏透明度和问责意识的形象。
Elon Musk本人对更严格的AI控制持抗拒态度。内部知情人士透露,Musk从公司内部反对实施更严格的Grok限制措施,他用"觉醒"这样的词来形容更严谨的AI安全框架。这种哲学立场直接影响了xAI的产品决策。Grok与OpenAI的ChatGPT和Google的Gemini相比更加粗鲁,会毫不顾忌地使用粗言秽语,拒绝遵从的倾向也更强。这种设计选择看似体现了"言论自由"的理想,但最终代价是什么呢?付出的是数千张非共识性性图像的生成,是儿童被用来制作性化内容,是数百名女性成为非自愿的深度伪造受害者。
02 .
全球监管联动,AI治理的分水岭时刻
这场危机所引发的监管回应之迅速和广泛,表明国际社会已经对AI生成的性化内容达成了某种共识:这不是一个可以被忽视或推迟处理的问题。从地理上看,针对Grok的行动已经跨越了三个大陆。
欧盟的反应最具有制度性。欧盟委员会下令X保留与Grok相关的所有内部文件和数据直到2026年底底,同时表示这不仅仅是限制谁可以付费使用的问题——核心问题是这些非法内容根本不应该出现在平台上,不管用户是否为高级功能付费。这一立场暗示,欧盟可能在考虑对平台的设计本身进行更深层的干预。
法国的巴黎检察官办公室则启动了刑事调查,这意味着Grok生成的某些内容可能被视为法律上的犯罪。英国监管机构Ofcom以"紧急"的名义联系了X和xAI,要求它们解释为何该功能能够生成儿童的性化图像,以及它是否违反了英国的用户保护法律义务。英国首相Keir Starmer用政治措辞强调了这个问题的严重性,这意味着任何涉及儿童性虐待材料的指控在政治上都是第一优先级。
在亚洲,监管步伐同样不慢。印度IT部在1月2日发出了一份措辞强硬的命令,要求X在72小时内对Grok进行"全面的技术、程序和治理层面的审查",确保它不生成任何"淫秽、色情、下流、猥亵、明确的性内容、恋童癖或其他违法的内容"。印度的口吻表明,它不会接受任何关于"用户生成"或"AI幻觉"的辩词——如果一个平台能够大规模生成非法内容,那么平台本身就有责任。印尼的禁用决定更加激进,直接切断了对该服务的访问。马来西亚通信和多媒体委员会则宣布了正式调查,并计划传唤X的代表。
这一系列行动不是孤立的回应,而是一场协调的国际监管动作。各国都在发出同样的信号:AI工具嵌入到大规模平台中时,必须受到与其他内容系统相同的法律标准约束。当AI生成的输出跨越法律或文化边界时,开发者和部署者不能将责任推卸给算法或用户。这是对硅谷"最小干预"哲学的直接挑战。
03 .
监管空白与法律武装赛,深度伪造的治理困局
虽然关于深度伪造的法律框架正在世界各地迅速演进,但这些法律往往都滞后于技术能力和滥用行为。这就形成了一个治理悖论:当技术威胁变得清晰可见时,法律往往还没有跟上。
欧盟的AI法案是第一个试图系统性地规范深度伪造的大型立法框架,但该法案的关键条款要到2026年8月才会生效。在那之前,平台对其生成AI内容的法律责任仍然存在灰色地带。欧盟确实要求标记AI生成的内容并保留记录,但这些要求的执行方式和责任分配仍有待进一步明确。
在美国层面,虽然有《TAKE IT DOWN法案》等提案在讨论,但还没有联邦立法覆盖AI生成的非共识性深度伪造。有些州已经采取了行动——田纳西州将未经同意分享性化深度伪造定为重罪,最高可判15年监禁。新泽西州的深度伪造法将创建恶意深度伪造定为第四级犯罪,可导致最多18个月监禁和3万美元罚款。加州则对分发非共识性深度伪造规定了最高2500美元的罚款和1年监禁。
但这些法律的缺陷显而易见。首先,它们大多关注分发而非创建。其次,在这些法律生效之前创建的内容往往没有遡及力。英国就面临这样的困境——去年6月通过的《数据使用和访问法案》2025年部分条款本应对"假想的亲密图像"(deepfakes)的创建者施加刑事处罚,但这些条款至今还没有生效。对于用Grok创建的深度伪造是否会被这项新法律覆盖,法律专家仍然存在疑虑。
更深层的问题在于平台责任的界定。目前的互联网法律框架,特别是美国的《第230条》和欧盟的平台治理框架,都是在AI生成内容成为主要社会威胁之前制定的。第230条保护互联网平台免于用户生成内容的责任,但现在出现了一个新的问题:当平台本身通过其AI工具成为内容生成者时,这项保护还是否适用?AI安全倡导者Tyler Johnston指出,X在设计上做出了允许Grok生成性化成人和儿童图像的决定。这不是平台仅仅主持用户内容,而是平台通过其工具主动创建。因此,是否X应该受到更严格的内容责任,正成为一个越来越紧迫的法律问题。
印尼的禁用行动绕过了所有这些灰色地带,采取了最直接的方式——如果问题无法通过现有法律框架解决,那就从技术层面阻止访问。这种做法在治理上有其局限性,但在某种意义上也反映了各国对法律框架滞后的沮丧。
印尼通信部的声明强调,所有在该国运营的数字服务都必须遵守国家法律,违反者可能面临制裁,包括完全禁止访问。这不仅是对Grok的警告,也是对整个AI产业的信号:如果你要进入我们的市场,你的产品必须符合我们的法律标准。
这一刻标志着AI治理进入了一个新阶段。不再是"一项新兴技术,我们需要理解它"的时代,而是"这项技术造成了具体伤害,我们需要立即规范它"的时代。各国正在测试他们可以如何远程拥抱或拒绝特定的AI应用,这可能会导致AI产业在不同地区遵循不同标准。
长期来看,这可能推动AI安全和道德标准的全球协调,也可能导致全球AI市场的碎片化。但无论哪种情况,Grok危机都已经成为了一个转折点——证明了单靠公司自律无法阻止有害的AI应用,全球监管体系的介入已经成为必然。
热门跟贴