一家市值3万亿美元的巨头,私下警告另一家由世界首富掌控的AI公司——你的App再不改,就滚出我的商店。这封1月30日的信件直到最近才被曝光,而收信人是三位美国参议员。
被隐藏的威胁
NBC News获取的苹果致参议员信件显示,今年1月Grok深陷"深度伪造裸照"风波时,苹果曾两次拒绝xAI的整改方案,甚至发出下架警告。
事情始于2026年初。Grok的图像生成功能被滥用,大量非自愿的性化深度伪造图片涌入X平台,受害者包括真实女性和未成年人。倡导组织和立法者施压苹果、谷歌下架X和Grok。
苹果的回应很直接:联系两家团队,要求提交内容审核计划。
xAI第一次提交的更新被当场打回。苹果在信中明确告诉开发者:"改动不够"。第二次提交仍不达标——Grok继续违规,X倒是过关了。苹果发出最后通牒:再改,否则下架。
第三轮沟通后,苹果终于批准。但这解释了xAI当时一系列看似矛盾的紧急调整:图像编辑限付费用户、限制真人图片修改、部分地区直接屏蔽生成功能。
NBC News的测试发现,部分限制仍可通过修改提示词绕过。问题减轻,但未根除。
xAI对NBC News的回应是标准话术:"严格禁止用户生成非自愿露骨深度伪造,禁止用工具给真人脱衣。"
平台权力的隐形杠杆
这张图值得细品:苹果App Store审核流程。
http://dingyue.ws.126.net/2026/0416/23ca37e8j00tdl07v000jd000o400dkp.jpg
表面看是普通的违规处理流程——发现问题、要求整改、审核通过或拒绝。但放在具体语境里,每个节点都藏着平台经济学的权力逻辑。
第一,"私下威胁"本身就是设计好的威慑。苹果选择不公开下架警告,既保留了谈判空间,也避免了与马斯克公开撕破脸。毕竟X和Grok都是高流量应用,真下架是双输。
第二,三次提交才过关,说明xAI的"严格禁止"在技术上并不好实现。图像生成模型的核心能力是理解提示词并创造内容,"识别并阻止恶意使用"是另一套完全不同的技术栈。xAI的解决方案是层层加码的限制,而非根治——付费墙、功能阉割、地理围栏,都是降低风险暴露面的商业妥协。
第三,苹果的审核标准有弹性空间。"冒犯性、不敏感、令人不安"(offensive, insensitive, upsetting)这类描述性条款,解释权完全在平台手中。X过了,Grok没过,差别可能不在违规程度,而在整改诚意或沟通效率。
为什么是现在被曝光?
信件是1月30日发给参议员Ron Wyden、Ben Ray Luján和Edward Markey的。这三位的共同点是:长期关注科技平台责任,尤其盯着App Store的垄断问题。
苹果选择向参议员披露细节,而非公开声明,是一种精明的政治操作。既回应了立法者的质询压力,又避免了被媒体放大解读。但现在信件流出,说明有人觉得苹果的"私下处理"不够透明,或者想借机敲打平台权力。
更深层的背景是欧盟《数字市场法》和美国反垄断诉讼的双重压力。苹果正在全球范围内辩护其App Store的控制权,任何"选择性执法"或"不透明审核"都可能成为把柄。
这次Grok事件恰好展示了苹果最不想被看到的一面:它可以单方面决定一款AI应用的生死,标准模糊,程序封闭,且倾向于私下解决而非公开规则。
马斯克的两难
xAI的应对策略暴露了一个尴尬现实:号称"追求真理"的AI,在平台规则面前只能层层自我阉割。
付费门槛是最省事的做法——把责任转嫁给用户账户体系,同时创造收入。限制真人图片编辑则是精准切割,保留"创意生成"的卖点,砍掉最高风险的场景。地理围栏更是经典操作,用IP地址过滤规避法律风险最高的司法管辖区。
但这些补丁的漏洞也很明显。NBC News的测试证明,修改提示词就能绕过部分限制。这意味着xAI的"解决方案"更多是合规表演,而非技术根治。
马斯克的公开人设是反审查斗士,但Grok的整改路径却是典型的平台顺从。这种分裂不新鲜——X平台在巴西、印度等地的合规妥协早已上演。商业现实是:没有App Store分发,AI应用的触达效率会断崖式下跌。
生成式AI的审核困局
Grok不是第一个,也不会是最后一个踩雷的图像生成工具。Midjourney、Stable Diffusion、DALL-E都经历过类似争议,应对策略大同小异:关键词过滤、输出检测、使用限制。
但根本矛盾没有解决:这些模型的训练数据包含大量真人图像,其生成能力本质上就是"重组已有信息"。要求它"不生成特定类型的真人图像",技术上近似于要求搜索引擎"不返回特定关键词的结果"——可以做,但永远有漏网之鱼,且误伤率不低。
苹果的审核逻辑是结果导向:不管你怎么做的,给我看到违规内容消失。xAI的三次提交,本质上是在寻找"足够好"的合规包装,而非真正解决模型能力与安全边界的冲突。
这种博弈会反复上演。随着多模态模型能力增强,生成内容的真实性提升,平台审核的压力只会更大。苹果的"私下威胁"模式能维持多久,取决于两个变量:监管机构的透明度要求,以及开发者集体的反抗意愿。
实用指向
如果你是AI应用开发者,这封信是个免费案例课。苹果的审核红线不在"有没有违规",而在"整改是否足够让平台免责"。三次提交才过关说明:第一次的改动幅度要大到让审核员觉得"这帮人真的尽力了",而非技术最优解。
如果你是平台治理研究者,关注两个信号:苹果何时会把"私下威胁"转为公开规则,以及欧盟DMA的互操作性要求是否会削弱这种单方面的下架权力。
如果你是普通用户,Grok的限制补丁意味着免费功能缩水、付费门槛抬高——这是平台-开发者博弈的隐性成本,最终由使用者买单。
热门跟贴