How Elon Musk’s Grok spread sexual deepfakes and child exploitation images

专家表示,亿万富翁的xAI初创公司缺乏足够的保障措施,但许多人工智能模型都是用令人不安的素材训练的。

打开网易新闻 查看精彩图片

埃隆·马斯克的xAI公司回应批评称,将Grok图像生成器的使用权限限制在付费订阅用户范围内。 © FT montage/Bloomberg

专家警告称,埃隆·马斯克的 Grok 人工智能模型缺乏安全措施来阻止用户生成女性和儿童的性化深度伪造视频,许多人工智能系统都容易产生类似的内容。

周五,这位亿万富翁旗下的初创公司xAI宣布,将旗下图像生成器Grok的使用权限限制在付费用户范围内。此前,欧盟、英国和法国的政府及监管机构曾威胁要对其处以罚款和禁令。

这家去年收购了马斯克社交媒体网站X的公司一直特立独行,其人工智能产品在内容“防护措施”方面远少于OpenAI和谷歌等竞争对手。该公司所有者称其Grok模型“最大限度追求真相”。

人工智能和深度伪造专家亨利·艾德表示:“该模型的构建方式,以及似乎缺乏的限制和安全措施……意味着此类事件不可避免地会发生。”

xAI公司未回应置评请求。马斯克此前曾表示,“任何使用Grok制作非法内容的人都将面临与上传非法内容相同的后果”。

人工智能公司面临着不断攀升的基础设施开发成本,这些成本旨在支撑其宏伟目标,因此它们正承受着提升用户参与度和实现产品盈利的压力。与此同时,其他一些公司正在探索允许更多成人内容。例如,OpenAI 表示计划在本季度为其聊天机器人推出“成人模式”。

虽然 xAI 没有透露其模型的训练细节,但它很可能是使用从互联网上抓取的大量图像数据集进行训练的。

2023年,斯坦福大学的研究人员发现,一个用于创建人工智能图像生成器的热门开源数据库LAION-5B充斥着儿童性虐待材料(CSAM)。

该数据集还包含色情内容以及暴力、种族主义和性别歧视图像。由于这些数据集包含数十亿张图像,人工智能实验室很难删除或过滤掉所有冒犯性内容。

专家补充说,即使 xAI 确保其模型没有使用 CSAM 进行训练,但由于一种称为“风格迁移”的技术,该模型仍然有可能生成儿童性化图像。

如果一个模型是用裸体人物的图像进行训练的,它就能够将这些图像转移到穿着衣服的成年人或儿童的照片上。

人工智能公司能够阻止用户生成有害内容的方法有限,例如在模型上添加安全过滤器来屏蔽某些关键词。

这些工具通常比较粗糙,用户可以通过提供书面提示(例如,使用替代拼写)来绕过它们,从而“破解”模型。

2024 年,谷歌的 Gemini 图像生成模型生成了黑色纳粹的图像,引发了批评。起因是用户使用拼写错误的提示词向系统输入了“1943 年的德国士兵”。

公司还可以利用人工智能工具检测图像中不当的内容,例如裸露和血腥画面,并在图像生成后阻止用户访问这些图像。

人工智能公司还可以从模型中移除某些“概念”,或者调整模型本身,以确保模型只生成无害的图像。

然而,这些技术并不完美,大规模应用时往往会失效,而且容易受到攻击。xAI 最新、功能最强大的模型 Grok 4 于 7 月发布,它具有“Spicy Mode”(劲爆模式)功能,允许用户生成带有性暗示的成人内容。

另一个问题是,xAI 已将 Grok 的一些功能整合到 X 社交网络中,使得更多图像可以公开显示并广泛传播。Grok还拥有一个视频生成模型,能够生成画面血腥暴力的内容,但 X 用户无法使用该模型。

自2022年收购X(前身为Twitter)以来,马斯克一直试图放松对这家社交网络的安全限制。他解雇了Twitter的伦理人工智能团队,该团队曾致力于研发防止有害内容在平台上传播的技术。

网络安全公司 Check Point Software 的企业主管 Charlotte Wilson 表示,需要采取更多技术控制措施,包括“更强大的内容分类器、惯犯检测、快速删除流程和可见的审计跟踪”。

X公司针对公众日益高涨的抗议,试图将图像生成功能限制在付费用户范围内,但其回应反而引发了更大的反弹。

英国最大的家庭暴力慈善机构Refuge表示,此举代表着“虐待行为的商业化”,即“让X公司从伤害中获利”。

本文出处:https://www.ft.com/content/117af7cc-3fe6-4292-a706-7204b82bb8dc