据英国《金融时报》报道,欧盟监管机构已对马斯克旗下的xAI公司及其聊天机器人Grok启动正式调查,焦点在于Grok被用于创建和传播涉及女性和儿童的性化深度伪造图像。
这一调查标志着欧盟首次针对xAI及其Grok模型采取正式执法行动。欧盟数字服务法要求大型在线平台严格管控非法内容,包括儿童性虐待材料和非自愿深度伪造色情内容。监管机构认为,Grok的图像生成能力——尤其是其相对宽松的内容过滤机制——可能导致此类有害内容的快速扩散。
报道指出,Grok自推出以来,以“最大程度追求真相”和较少的审查限制为卖点,这与OpenAI的ChatGPT和Google的Gemini等主流模型形成鲜明对比。用户可以通过简单提示让Grok生成高度逼真的图像,包括名人、政治人物乃至未成年人的性化内容,而无需复杂的越狱技巧。这类功能已在社交媒体上引发大量争议和举报,一些案例涉及真实人物的非同意裸露图像,甚至疑似涉及未成年人。
欧盟委员会数字服务专员Thierry Breton此前已多次公开批评马斯克旗下平台X在内容审核上的松懈。此次对xAI的调查被视为监管延伸,旨在评估Grok是否违反欧盟数字服务法关于“系统性风险”的条款,包括对公共安全、儿童保护和性别暴力的潜在影响。如果调查确认违规,xAI可能面临全球营业额高达6%的巨额罚款,并被要求立即整改模型的安全机制。
xAI方面尚未正式回应调查,但马斯克本人在X平台上多次为Grok辩护,称其“无偏见”和“反觉醒”,并强调开放AI发展的必要性。批评者则指出,这种“无限制”理念在实际应用中已演变为有害内容的温床,尤其在图像生成领域缺乏足够防护。
这一事件发生在欧盟加强对生成式AI监管的关键节点。2024年底通过的欧盟AI法案将于2026年起逐步生效,对高风险AI系统(如生成深度伪造内容的模型)设定了严格要求。xAI作为新兴玩家,正面临与OpenAI、Meta等巨头类似的合规压力。
分析人士认为,此次调查不仅是针对Grok的技术问题,更反映出欧盟对马斯克商业帝国(涵盖X、Tesla、SpaceX、xAI)的整体警惕。马斯克的多平台影响力、其对言论自由的极端立场,以及xAI的快速扩张,都让监管机构保持高度关注。未来几个月,调查结果或将重塑生成式AI的内容边界,并影响全球AI治理格局。
热门跟贴