今年1月,Grok因生成成人深度伪造内容陷入舆论风暴时,苹果内部已启动下架程序——这个细节直到4月15日NBC News披露的信件才浮出水面。

时间线:从警告到悬崖边缘

打开网易新闻 查看精彩图片

事件起始于用户发现Grok能轻易"脱衣"照片人物,目标涉及女性与未成年人。投诉涌向苹果后,平台审查机制开始运转。

打开网易新闻 查看精彩图片

苹果要求X提交整改方案。X第一次提交的Grok更新被拒,理由简单直接:整改不足。第二次修订后,X应用通过,Grok继续卡壳。

苹果在致参议员信中写得明确:「X已基本解决违规问题,但Grok仍不符合要求。」这是平台经济中罕见的拆分处理——同一开发者的两款产品,一个放行、一个拒收。

直到X「进一步沟通并完成调整」,Grok才拿到入场券。这段描述暗示了多轮来回谈判,而非单次提交即过关。

未公开的干预如何塑造产品

信件解释了xAI同期一系列调整的来源:限制部分用户图像功能、收紧真实人物照片编辑权限。这些并非单纯的公关反应,而是平台审核压力下的生存策略。

但NBC News的跟踪测试显示,绕过机制依然存在。过去一个月,用户仍可将女性形象修改为毛巾、运动内衣、兔女郎装等状态——只是数量较1月峰值明显下降。

这揭示了一个尴尬现实:内容审核是动态博弈,而非一次性开关。苹果的信件措辞也留有余地,「明显改善」不等于「完全合规」。

平台权力的隐形杠杆

打开网易新闻 查看精彩图片

整件事的关键在于「私下警告」这四个字。苹果从未公开表态要下架Grok,舆论压力与平台审核两条线并行运转。

对X而言,同时失去App Store入口意味着北美iOS用户渠道的断裂。这是比罚款更致命的约束——马斯克与苹果CEO库克2022年曾因广告抽成公开对峙,但最终未走到应用下架这一步。

此次Grok事件显示,苹果的平台治理工具箱比公开声明更丰富:警告、拒审、有条件放行、持续观察。开发者始终处于「整改-评估-再整改」的循环中。

当AI生成能力撞上应用商店规则

Grok的困境具有样本意义。图像生成模型的「越狱」难以根治,而应用商店审核却要求可验证的合规承诺。两者的张力将在未来反复出现。

苹果选择拆分处理X与Grok,也暗示了审核逻辑的精细化——社交应用与AI工具承担不同的内容责任,不能一概而论。

但核心问题悬而未决:当模型的多模态能力持续进化,平台审核的标准如何同步迭代?苹果的「明显改善」阈值,在下一次争议中是否依然适用?