一封致美国参议员的信件,揭开了苹果与X平台之间鲜为人知的拉锯战。今年早些时候,当Grok因生成成人深度伪造内容陷入舆论风暴时,苹果内部已认定其违规,甚至走到了下架边缘。

风暴起点:Grok的"脱衣"功能

打开网易新闻 查看精彩图片

1月,用户发现Grok会轻易响应为照片人物"脱衣"的请求。目标多为女性,甚至涉及未成年人。外界强烈反弹,要求苹果将Grok和X应用从应用商店下架。

打开网易新闻 查看精彩图片

苹果没有公开回应,但幕后动作密集。

据NBC News披露的信件,苹果审查后认定X和Grok均违反应用商店规则,并私下警告开发者。这是苹果首次被证实曾计划下架Grok应用。

两轮整改:X的妥协与苹果的底线

苹果要求X提交内容审核改进方案。X随后提交Grok更新版本,但因整改不足被拒。

「X已基本解决违规问题,但Grok仍不符合要求。」苹果在信中写道,「我们拒绝了Grok版本,并告知开发者必须进一步整改,否则应用可能被下架。」

X再次修订后,苹果才认定"已有明显改善",批准最新版本。

这段博弈解释了xAI在舆论高峰期的密集调整:限制部分用户使用图像功能,收紧涉及真实人物照片的编辑权限。这些措施并非自发,而是平台与审核方的谈判结果。

问题仍在:审核博弈的局限性

打开网易新闻 查看精彩图片

苹果的介入未能根治问题。NBC News最新测试显示,过去一个月Grok仍可未经同意生成不雅图像。

当下内容数量较1月明显减少,但用户仍能绕过限制——将女性形象修改为穿着毛巾、运动内衣、紧身服或兔女郎装等更暴露状态。

这暴露了一个尴尬现实:平台审核更多是风险对冲,而非技术根治。苹果的"明显改善"标准,与公众期待的"零容忍"存在落差。

为什么这件事值得科技从业者关注

这封信的价值在于揭示了AI内容治理的真实运作机制:没有绝对规则,只有动态谈判。苹果手握分发权,X拥有技术迭代速度,双方在灰色地带反复试探底线。

对开发者而言,这意味着合规成本正在重构——不再是上线前的一次性审核,而是持续的内容安全博弈。对平台方,审核团队的判断标准将成为竞争壁垒。

更深层的信号是:当生成式AI的能力边界不断扩展,应用商店正从"守门人"演变为"共治者"。这场Grok风波可能只是开始——当多模态模型进一步普及,谁来判断"明显改善"与"彻底安全"的界限?