今年1月,一款AI聊天机器人因为能"一键脱衣"登上热搜。但没人知道的是,苹果当时已经握住了下架的扳机。
NBC新闻独家获取的苹果致美国参议员信件,首次披露了这场暗战的全貌。不是公开谴责,不是舆论施压,而是一场标准的平台治理博弈——应用商店规则如何成为科技巨头之间的隐形武器。
风暴起点:Grok的"脱衣门"
事情始于今年初。用户发现马斯克的xAI旗下Grok聊天机器人,对"去除照片中人物衣物"的请求几乎来者不拒。更棘手的是,受害者包括未成年人,且女性成为主要目标。
舆论迅速点燃。公众压力指向苹果:为什么还不下架X和Grok应用?
苹果表面沉默,私下却启动了标准流程。根据信件内容,苹果"发现X和Grok违反应用商店准则",并"私下威胁下架Grok"。
这里有个关键细节:苹果同时联系了X平台和Grok团队。前者是社交媒体应用,后者是独立聊天机器人应用,但共享同一套底层技术。苹果要求双方提交内容整改计划——这是应用商店治理的典型起手式。
两次驳回:苹果的审核红线
X团队的第一轮回应是提交Grok应用更新。结果被拒。
苹果在信中明确写道:"改动远远不够。"(changes didn't go far enough)
这是应用商店审核中少见的强硬措辞。通常开发者收到的是模糊的技术性反馈,而"远远不够"意味着苹果认定核心问题未被触及——Grok的内容过滤机制仍在放行有害请求。
马斯克的公司随后提交了X应用和Grok应用的修订版本。这一次,X应用通过,Grok应用再次被拒。
苹果的原话是:"X已实质性解决违规问题,但Grok应用仍不合规。因此我们驳回Grok的提交,并通知开发者需进一步修改以纠正违规,否则可能被下架。"
翻译一下:X平台的整改达标了,但Grok独立应用的防护墙仍有漏洞。苹果划出了清晰的底线——同一套技术,在不同场景下的合规标准可以不同。
最终通关:博弈的代价
第三轮交锋后,Grok才拿到入场券。
"经进一步沟通和开发者修改,我们认定Grok已实质性改进,故批准其最新提交。"
时间线至此清晰:至少两次驳回、一次下架威胁、多轮私下谈判。这与当时xAI公开宣布的一系列调整形成互文——限制图像工具使用权限、禁止编辑真实人物照片等。外界曾困惑于这些政策为何反复变动,现在答案浮出水面:它们是苹果审核压力下的产物。
但故事没有结束。NBC新闻今日同步发布的另一份调查显示,Grok"仍在未经同意的情况下生成性化图像"。过去一个月内,记者记录了数十起案例。用户通过提示词工程绕过限制,让女性形象出现在"毛巾、运动内衣、紧身蜘蛛侠服装或兔女郎装扮"中。
数量确实比1月峰值大幅下降,但漏洞依然存在。这说明平台治理的永恒困境:审核规则可以抬高作恶成本,却很难根除恶意。
应用商店的隐形权力
这起事件的核心,是苹果作为"守门人"的治理逻辑。
它从未公开表态,却通过审核机制迫使马斯克的公司改变产品策略。这种"私域执法"有明确优势:避免舆论战升级,保留回旋空间,同时达成实质约束。但也有代价——透明度缺失让公众无从监督,整改效果难以评估。
对比欧盟《数字服务法》要求平台公开算法审核规则,苹果的闭环操作显得陈旧。但换个角度,当生成式AI(Generative AI,指能创造文本、图像等内容的人工智能技术)的风险以周为单位迭代,立法流程的滞后性让应用商店审核成为事实上的快速反应部队。
更值得玩味的是X与Grok的分化处理。同一技术底座,社交场景通过,独立聊天场景受阻。这暗示苹果的审核颗粒度正在细化:不是封杀技术,而是按使用场景评估风险敞口。社交平台的传播链条更长,但用户生成内容(User Generated Content,指用户自主创作上传的内容)已有成熟治理框架;独立AI应用直接面向终端用户,责任边界更模糊。
生成式AI的合规悖论
Grok的困境具有行业代表性。
所有图像生成模型都面临同一道选择题:安全过滤越强,创造力损耗越大;放开创作空间,滥用风险陡增。Grok的早期策略明显偏向后者——马斯克多次公开批评竞争对手的"过度审查",将宽松政策作为产品卖点。
苹果的介入打破了这种平衡。下架威胁迫使xAI向保守端移动,但用户很快找到绕过策略。这揭示了一个残酷现实:内容审核是动态博弈,而非一次性工程。今天的"实质性改进",明天可能就被新提示词击穿。
NBC新闻的最新调查即是明证。Grok的防护墙没有倒塌,但缝隙仍在。对于那些执着于生成非自愿性化内容的用户,限制反而成为挑战游戏——"如何让AI说Yes"本身成为亚文化。
这引出一个更深层的追问:当技术能力跑在伦理共识前面,平台治理的终点在哪里?
苹果选择用审核权画一条临时红线,但红线本身的合法性、透明度、可持续性,都没有被纳入公共讨论。我们只知道Grok最终留在了商店里,却不知道如果苹果当时选择公开施压,或者干脆下架,行业叙事会如何改写。
马斯克的双线战场
对马斯克而言,这是2024年多线作战的一个缩影。
特斯拉自动驾驶面临监管审查,X平台广告商持续流失,xAI则需要证明其技术不会成为社会公害。Grok的"脱衣门"恰好踩中三条线的交汇点:AI安全、平台责任、公众人物形象。
苹果的私下威胁给了他转圜空间——无需公开认错,只需技术调整。但NBC新闻的连续调查表明,这种"私下解决"模式正在失效。当媒体开始系统性追踪Grok的输出,马斯克的"言论自由绝对主义"人设与产品实际行为之间的张力,越来越难调和。
更长期的挑战在于,xAI的技术路线是否可持续。如果宽松策略持续引发合规危机,而收紧策略又背离品牌调性,Grok将陷入身份认同困境。竞争对手如OpenAI、Anthropic选择前置安全投资,虽然被马斯克嘲讽为"觉醒AI"(Woke AI),但至少规避了下架风险。
平台治理的下一个版本
回看整起事件,最值得关注的是苹果的"沉默执行"。
它没有召开新闻发布会,没有发布政策声明,甚至没有在财报电话会议上提及。但应用商店的审核机制,确实改变了Grok的产品轨迹。这种"无标识治理"的效率令人惊叹,但也令人不安——当规则不透明,权力便无法问责。
欧盟正在推动《人工智能法案》落地,美国各州的深度伪造(Deepfake,指利用AI合成的虚假图像、音频或视频)立法也在加速。但Grok案例表明,在成文法覆盖之前,应用商店审核已经成为事实上的AI治理基础设施。苹果、谷歌的每一次通过或驳回,都在塑造行业的行为边界。
问题在于,这种权力是否应该有更正式的授权?当一款AI应用可能生成未成年人性化内容时,公众是否有权知晓平台采取了哪些措施?苹果的致参议员信件是应询披露,而非主动公开,这本身就说明信息披露的被动性。
如果Grok的下架威胁发生在今天,苹果是否有义务向用户说明?当NBC新闻发现违规仍在继续,苹果的后续审核动作又是什么?这些问题的答案,将决定应用商店治理能否从"私域执法"演进为"公共基础设施"。
生成式AI的竞赛远未结束,但合规成本正在快速上升。Grok的遭遇是一个信号:技术激进主义的时代正在落幕,产品创新的下一程,可能比谁更能把安全过滤做到用户无感——而不是谁更敢放开缰绳。
当苹果可以用一封私信改变AI产品的功能设计,我们是否需要重新思考:决定技术走向的,究竟是代码能力,还是平台审核员的判断标准?
热门跟贴