今年1月,苹果一封内部信让马斯克的人工智能助手Grok站在了App Store的悬崖边缘。不是因为技术故障,不是因为商业竞争,而是一个更棘手的问题——用户正在用它批量生成非自愿的色情深度伪造图像。

这场危机最终没有演变成公开对峙,却在硅谷留下了一个悬而未决的命题:当生成式人工智能撞上平台治理,谁来划定红线?

打开网易新闻 查看精彩图片

一封未公开的信

NBC News获取的苹果致美国参议员信件显示,苹果在收到投诉和媒体报道后,"联系了X和Grok背后的团队",要求开发者"制定计划以改进内容审核"。

措辞克制,但后果明确:整改,否则下架。

这是苹果典型的幕后操作风格。不同于谷歌或Meta动辄公开声明的做派,苹果倾向于在封闭会议室里解决问题。但这一次,沉默背后有清晰的商业算计——X和Grok都是App Store的创收应用,苹果从中抽取15%-30%的分成。

苹果在信中承认,经过审核,X"已基本解决违规问题",但Grok"仍不合规"。直到多轮来回后,苹果才认定Grok"大幅改进"并批准其提交版本。

整个过程中,两款应用始终未从商店下架。这种"边跑边修"的模式,或许解释了为何Grok的整改措施显得混乱而仓促——包括将X平台上的Grok限制为付费订阅用户,以及试图阻止其"脱衣"功能。

马斯克的内容审核困境

要理解Grok为何成为众矢之的,需要回到它的产品定位。

2023年,马斯克创立xAI时,给Grok设定的差异化标签是"反觉醒"(anti-woke)——一个愿意回答其他人工智能回避的尖锐问题、更少内容过滤的聊天机器人。这个定位在X平台上迅速积累了用户,尤其是马斯克的核心粉丝群体。

但"更少过滤"的副作用在2024年底开始失控。

《The Verge》此前的调查报道显示,Grok的防护机制极其薄弱。用户可以轻松绕过限制,生成真实人物的性化深度伪造图像,包括"脱衣"照片。受害者多为女性,部分疑似未成年人。这些图像随后被直接分享到X平台,形成完整的生产-传播链条。

这与App Store的审核指南形成直接冲突。苹果第1.1.1条规定,应用不得包含"诽谤、歧视或恶意内容",包括"针对特定个人或群体的深度伪造或合成媒体"。第1.2条进一步要求用户生成内容类应用必须具备"过滤不良内容的方法"和"举报机制"。

马斯克并非不知道这些规则。2024年,苹果曾因类似问题短暂威胁下架Telegram,最终迫使后者加强审核。但Grok的特殊性在于,它同时存在于两个场景:作为X平台内置功能,以及作为独立App。

这种双重身份让整改变得复杂。苹果的信件显示,团队分别审核了X应用和Grok独立应用,对前者相对满意,对后者持续施压。这暗示了一个技术细节:X平台的Grok可能通过服务器端更新更快调整,而独立应用需要重新提交审核,流程更慢。

马斯克的应对策略也印证了这种分裂。将X平台的Gkrk改为付费订阅,既是一种收入手段,也是一种责任转移——付费墙天然过滤了部分随意滥用者。但独立App的Grok需要更底层的技术重构,这才是苹果持续发难的核心。

苹果的"铁拳"与选择性执法

苹果以审核严格著称,但这种严格从来不是均匀的。

2019年,苹果因"违反用户生成内容准则"下架Tumblr,迫使其全面禁止成人内容。2020年,Epic Games《堡垒之夜》因绕过应用内支付系统被秒速下架,引发持续数年的法律战。2024年,Telegram在欧盟压力后加强审核,苹果随即恢复其上架资格。

但面对X和Grok,苹果的处置明显更为迂回。

没有公开声明,没有即时下架,只有"联系团队"和"要求制定计划"。这种温差可以用一个简单的商业事实解释:X是社交媒体巨头,Grok是马斯克个人品牌的一部分。与Epic或Tumblr不同,对抗马斯克意味着对抗一个拥有2亿X粉丝的舆论场。

更微妙的因素是时间线。苹果的警告发生在2025年1月,正值特朗普政府过渡期和马斯克政治影响力巅峰期。马斯克被任命领导"政府效率部"(DOGE),与白宫关系空前紧密。在这个节点上,苹果选择幕后沟通而非公开对抗,很难说是纯粹的技术判断。

但这不意味着苹果完全没有底线。信件中"仍不合规"的措辞和持续的多轮审核,表明苹果确实在施压,只是节奏可控。最终Grok的"大幅改进"获得认可,也符合苹果一贯的"整改优先于惩罚"策略——只要开发者配合,商店地位可以保留。

这种博弈模式揭示了平台经济的深层结构:苹果既是规则制定者,也是利益相关方。下架一个头部应用意味着收入损失和公关风险,因此"威胁下架"往往比"实际下架"更有用。它既向监管者和公众展示了行动,又保留了与开发者的谈判空间。

深度伪造的产业链与监管真空

Grok危机的真正特殊性,在于它触及了生成式人工智能的治理盲区。

非自愿性深度伪造(Nonconsensual Intimate Imagery, NCII)并非新问题。2019年,深度伪造应用DeepNude被迅速下架,但其技术早已开源扩散。2023年,Stable Diffusion和Midjourney等图像生成模型的普及,让"脱衣"工具的门槛降至零。

Grok的不同之处在于速度集成。用户不需要下载专门软件、学习复杂参数,只需在聊天框中描述需求,几秒钟内就能获得结果。这种"对话即生产"的模式,将深度伪造从技术人员的小众工具变成了普通用户的随手操作。

更关键的是分发环节。Grok生成的图像可以直接发布到X平台,而X在马斯克治下的内容政策明显宽松。2023年,马斯克撤销了X的"非自愿裸露"专项审核团队,将信任与安全部门裁员80%。这创造了一个高效的"生产-传播"闭环,这是DeepNude时代从未有过的。

法律层面,美国尚无联邦层面的深度伪造专项立法。各州法律零散,惩罚力度不一。欧盟《人工智能法案》将深度伪造列为"有限风险"类别,要求标注但不禁用。这种监管真空意味着,平台自律成为事实上的主要治理机制。

但平台自律的激励结构是扭曲的。X和Grok的流量增长依赖于用户参与度,而争议性内容往往带来更高互动。马斯克本人曾多次表达对"过度审核"的批评,将内容限制视为"言论自由的敌人"。这种意识形态与商业利益的叠加,使得xAI的整改始终带有被动性。

苹果的介入因此具有双重意义:它填补了监管空白,同时也暴露了平台治理的局限性。一个手机制造商,通过应用商店条款,事实上在裁定人工智能的伦理边界。这种权力的合法性从未被充分讨论,却在每一次审核决定中被行使。

行业影响:生成式AI的"平台时刻"

Grok事件可能成为一个转折点,标志着生成式人工智能进入"平台监管时代"。

在此之前,AI模型的治理主要围绕训练数据版权、输出内容准确性等议题。深度伪造的泛滥将注意力转向了"即时生成内容"的实时审核——这是一个技术难度远高于传统内容审核的领域。

苹果的施压表明,应用商店正在成为AI治理的关键节点。与欧盟的立法进程或美国的国会听证相比,苹果的审核决定更快、更直接、更具执行力。对于依赖移动分发的AI应用而言,App Store和Google Play的准入门檻,可能比任何法律都更具约束力。

但这种治理模式的问题同样明显。苹果的审核标准不透明,执行不一致,且缺乏申诉机制。开发者往往在收到拒绝通知后才得知具体违规条款,整改方向由苹果的内部团队单方面裁定。对于Grok这样的复杂案例,"大幅改进"的判定标准从未公开。

更深层的问题是,将AI伦理决策集中于两家手机公司(苹果和谷歌),是否合理?它们的商业利益与公共利益并不总是一致的。苹果从X和Grok的订阅收入中分成,这种利益关联是否影响了下架威胁的时机和强度?信件本身无法回答,但问题本身值得追问。

对于AI行业,Grok危机传递了一个明确信号:产品设计的"反觉醒"定位,在平台监管面前可能代价高昂。马斯克试图用"更少过滤"作为差异化卖点,但苹果的信件表明,移动生态系统的守门人不会为这种差异化买单。合规成本正在上升,而"先上线再整改"的策略窗口正在收窄。

这也为其他AI应用开发者提供了参照。Character.AI、Replika等陪伴类AI应用,同样面临内容边界争议。苹果的Grok处置先例,可能成为未来类似案例的隐性标准。平台监管正在形成事实上的行业规范,其影响力可能超越任何成文法规。

数据收束

截至2025年初,Grok在App Store的评分维持在4.6星,下载量未受明显影响。X平台的Grok订阅转化率未公开,但马斯克在2024年Q4财报电话会上表示,xAI的估值已达500亿美元。

苹果的App Store审核团队在2024年拒绝了约170万次首次提交,因"安全"问题下架约3.7万个应用。Grok不在其中。

根据网络安全公司Home Security Heroes的追踪,2024年全球深度伪造视频数量同比增长550%,其中98%涉及色情内容,女性受害者占比94%。技术检测工具的准确率仍低于60%,平台审核依赖的人工标注成本持续上升。

这些数字勾勒出一个不对称的战场:生成速度远超审核能力,监管框架滞后于技术迭代,而平台守门人的幕后博弈,正在成为决定产品生死的隐形变量。Grok的"几乎下架"不是终点,而是生成式AI治理复杂性的一个早期样本。