你刷着X,突然看到一张熟悉面孔的裸照——AI生成的,以假乱真。举报按钮在哪?Grok说:正在生成中。

这种体验在2025年初泛滥成灾。而苹果的选择是:不发声明、不开听证会,直接一封警告信丢给马斯克团队。整改,或者滚出App Store。

打开网易新闻 查看精彩图片

这场持续数月的暗战,暴露出平台治理最尴尬的真相:当赚钱的应用触碰红线,连苹果也会犹豫。

沉默的通牒

NBC News获得的信件显示,苹果在2025年1月向开发者发出最后通牒。不是公开谴责,不是联合抵制,是一封需要记者挖出来才能见光的内部信。

苹果告诉美国参议员:「在收到投诉并看到丑闻报道后,我们联系了X和Grok的团队」,要求他们「制定计划改善内容审核」。措辞礼貌,后果严重——「额外整改,否则下架」。

这很苹果。App Store审核指南写得像刑法,执行起来却像外交。2020年Epic Games公开挑战抽成政策,苹果秒速下架《堡垒之夜》;2025年Grok批量生成非自愿性深伪(deepfake,深度伪造),苹果选择闭门谈判。

区别在哪?Epic动了苹果的生意,Grok只是动了别人的脸。

更微妙的是时间线。苹果承认Grok「持续不合规」,X则「基本解决违规」。两个应用同属马斯克帝国,待遇却分先后。X的社交属性让它更难替代,Grok作为独立AI应用,本应是更软的柿子。

但苹果捏了,没捏爆。

马斯克的防线有多脆

问题爆发时,Grok的审核机制近乎裸奔。

用户无需复杂提示词,就能让Grok「脱衣」任意照片。女性占绝对多数,部分疑似未成年人。这些图像在X平台病毒传播,而Grok既是生成工具,又是分发渠道。

我们当时的调查发现,Grok的「防护措施」像纸糊的。换个委婉说法、用第三方语言描述,封锁令就失效。这不是技术难题,是优先级问题——xAI(马斯克的人工智能公司)把速度放在安全前面。

苹果的警告信抵达后,整改呈现出奇怪的脉冲式节奏。

Grok先在X上限定为付费订阅者使用,试图用门槛过滤滥用。然后追加规则,阻止直接「脱衣」指令。但这些补丁实时上线、实时被绕过,像打地鼠游戏。

苹果信中的描述解释了这种混乱:「经过进一步来回沟通」,Grok才「显著改善」。来回。这个词暗示了多轮拉锯,而非一次性修复。

整个过程中,Grok和X始终挂在App Store里。没有暂停,没有灰度,没有给用户任何风险提示。你在下载页看到的,和平时一样:4.8星,「智能助手」,编辑精选。

谷歌的镜像沉默

苹果不是唯一从这场危机中抽成的平台。

Google Play同样托管着X和Grok,同样收取30%数字税,同样保持沉默。NBC News的报道未提及谷歌有任何干预动作,尽管Android生态的开放性让问题更难控制。

这形成了一种共谋结构。两大移动平台从争议应用中获利,却将治理成本转嫁给受害者——那些被深伪图像伤害的真实女性。她们要自行发现、自行举报、自行证明「这不是我」。平台则躲在「技术中立」的幕布后,数着分成。

苹果的闭门处理尤其值得拆解。它本可以公开援引App Store指南第1.1.1条(禁止诽谤、歧视或恶意内容),像对待Parler那样高调下架。但它选择了私下通道,给马斯克团队留足面子和整改时间。

为什么?一个猜测是:Grok的违规边界模糊。Epic直接挑战商业模式,是非分明;深伪内容游走在「用户生成」与「平台责任」的灰色地带。另一个猜测更冷:马斯克不是普通开发者。他的应用有3亿月活用户,他的脾气上过头条,他的火箭能炸也能飞。

平台治理的潜规则在此显形:影响力即护身符。

整改的代价谁付

让我们看看「显著改善」具体指什么。

根据后续报道,Grok的修改包括:强化提示词过滤、增加生成前警告、限制特定类型图像输出。但这些措施的有效性存疑——AI安全研究者的共识是,基于规则的过滤永远落后于创造性滥用。

更深层的问题未触及:Grok的架构设计是否适合开放访问?

对比OpenAI的DALL-E 3或Google的Imagen,主流图像生成模型普遍采用「先审核后输出」机制,在服务器端拦截违规请求。Grok的早期版本更像放飞状态,把审核压力推给事后举报。

这种设计选择不是技术限制,是成本计算。实时审核需要算力,延迟响应影响体验,而马斯克的产品哲学向来是「先上线,再修补」。

苹果的干预迫使xAI重新分配资源。但整改的边际成本,最终转嫁给订阅用户——Grok的付费墙在争议中筑起,免费时代的滥用狂欢结束,安全成为增值服务。

这是一个讽刺的闭环:平台危机催生付费门槛,付费门槛筛选「优质用户」,「优质用户」的滥用率更低,数据好看,危机降级。受害者?她们从未进入这个等式。

深伪战争的下半场

苹果的沉默通牒不是终点,是模板。

2024年美国已有10个州通过深伪专项立法,联邦层面的《DEFIANCE Act》正在推进。但法律滞后于技术,平台自治填补真空——而平台自治的透明度,取决于记者的挖掘能力。

NBC News的信件获取揭示了关键机制:苹果愿意向参议员披露细节,却不向公众说明。这种选择性透明让问责变得困难。我们不知道Grok具体违反了哪几条指南,不知道「显著改善」的评估标准,不知道如果整改失败,下架流程需要多久。

对比欧盟的《数字服务法》(DSA),超大型平台需定期公布内容审核数据,接受独立审计。美国的监管框架仍依赖「信披-丑闻-整改」的脉冲模式,而苹果的信件披露,本身就是丑闻驱动的例外并非常态。

Grok的案例预示了AI原生应用的治理困境。传统社交平台的违规内容由用户上传,AI应用则主动生成。责任链条从「托管」滑向「制造」,但法律语言和平台政策尚未完成这套语法转换。

苹果用「内容审核」框架处理Grok,是旧地图画新领土。当AI能每秒生成千张定制深伪,人工审核的规模经济彻底崩溃。自动化审核又面临误判与漏检的永恒张力——收紧则误杀正常创作,放宽则洪水泛滥。

马斯克的选择是后者,直到苹果敲门。

数据收束

截至2025年4月,Grok仍留在App Store,评分4.7,「工具类」排名第12。X的下载量未受明显影响,马斯克未就此事公开发声。

苹果的信件披露后,股价波动0.3%,低于日常噪声阈值。Google Play依旧沉默,没有跟进报道显示其采取类似措施。

非自愿性深伪的受害者中,女性占比96%(据网络安全公司Sensity 2019-2024年追踪数据),未成年人比例从2023年的12%升至2024年的21%。立法响应方面,美国50州中已有18州将非自愿深伪入刑,但联邦统一立法停滞于委员会阶段。

平台治理的ROI(投资回报率)计算清晰可见:干预成本 = 开发者关系损耗 + 潜在诉讼风险;不干预成本 = 声誉损失 × 媒体曝光系数。苹果的闭门选择,意味着其评估后者可控。

当Grok的下架威胁需要记者挖掘才能曝光,当整改效果缺乏独立验证,当谷歌全程缺席——我们得到的不是安全,是风险管理的最小可行产品。而那些被AI剥光衣服的女性,仍在等待一个不需要参议员介入的举报按钮。