当你在应用商店搜"AI修图"时,系统却主动问你要不要"AI脱衣"——这不是Bug,是设计好的。

Tech Transparency Project(科技透明项目,一家追踪平台责任的研究机构)的最新调查,把苹果和谷歌的底裤扒了。它们不只是"没及时发现"有害应用,搜索算法和广告系统正在主动把用户往"裸化应用"(nudify apps)里送。

打开网易新闻 查看精彩图片

一张图看懂:平台怎么"养"出这条产业链

想象你在App Store或Google Play的搜索框里打字。TTP(Tech Transparency Project)的研究员就是这么干的——他们输入"nudify""undress""deepfake""AI NSFW"等关键词,结果触目惊心:

约40%的热门搜索结果,返回的都是能把女性照片处理成裸体或半裸状态的应用。但这只是第一层。

第二层更离谱:两个平台都在这些搜索结果里插付费广告。Google直接给赞助应用开了轮播位,有些广告图本身就是色情内容。苹果虽然宣称"禁止成人内容广告",但TTP的3次搜索里,裸化广告赫然出现在第一位。

第三层是 autocomplete(自动补全)的"神助攻"。研究员在App Store输入"AI NS",系统立刻推荐"image to video ai nsfw",点进去又是一堆裸化应用。

三层漏斗,层层放大。这不是放任,是导流。

4830万次下载背后的商业算盘

TTP揪出的这批应用,累计下载量4.83亿次,终身收入超1.22亿美元。苹果和谷歌从中抽成——订阅费、内购,一分不少。

「这可能解释了为什么执法如此松懈。」TTP的报告写得直白。

31款应用被标为"适合未成年人"。也就是说,一个13岁孩子,不需要任何年龄验证,就能下载"一键脱衣"工具。平台的审核系统要么瞎了,要么装瞎。

被彭博社和TTP点名后,苹果下架了15款,Google暂停了若干。但两家公司都拒绝回答:这些应用怎么过审的?年龄评级谁定的?

沉默本身就是一种回答。

苹果的"双标"现场:对Grok狠,对自己松?

讽刺的是,苹果今年1月私下威胁要把马斯克的Grok(一款AI聊天应用)踢出App Store,理由是"色情化深度伪造内容"。

NBC News拿到的信件显示,苹果甚至拒绝了xAI(马斯克的人工智能公司)的第一版整改方案,觉得不够狠。最后Grok留了下来,但前提是加了一堆限制。

同一套审核团队,对第三方AI重拳出击,对自家商店里的裸化应用视而不见。这种选择性执法,很难不让人多想。

Google那边也不干净。它的广告系统本就依赖算法匹配,"AI脱衣"这类关键词显然转化率不错——有人搜,就有人点,就有人付费。平台抽成到手,责任推给"算法中立"。

法律正在收紧,平台还能躲多久?

英国政府已经开始立法打击显性深度伪造。美国刚记录下首例刑事定罪。压力只会越来越大。

但平台的问题不是"不知道",是"不想知道"。4.83亿次下载、1.22亿美元流水,这是一门被算法精心喂养的生意。搜索推荐、自动补全、付费广告,每个环节都在优化同一个目标:让用户点进去,让开发者赚到钱,让平台抽成到账。

年龄评级系统?那是给监管看的。审核团队?那是给公关备用的。真正运转的,是另一套逻辑。

TTP的调查方法其实不复杂:人工搜索、截图留证、统计下载和收入数据。苹果和Google完全有能力做同样的事,而且做得更快、更准。但它们没有。

为什么?因为一旦认真清理,收入数字会难看,开发者关系会紧张,"AI应用生态"的故事会塌掉一块。

我们到底在为什么付费?

这件事的荒诞之处在于:你买iPhone、用Android,以为自己在为"隐私保护""用户体验"买单。但你的每一次搜索、每一次点击,都可能被平台用来训练一套"脱衣应用推荐系统"。

更荒诞的是,当你想正经用AI修张图,系统却主动问你要不要"更刺激的功能"。这不是技术失控,是产品设计的选择。

苹果和Google的回应模式也很熟悉:被曝光→下架一批→拒绝解释→等风头过去。循环往复。1.22亿美元里,它们抽了多少?报告没算,但比例是公开的:苹果30%,Google 15%-30%。

这笔钱,买的是什么?

买的是一个13岁孩子能下载"裸化应用"的便利。买的是一个受害者发现自己的脸被AI扒光后的绝望。买的是平台在听证会上说"我们非常重视安全"时的底气。

如果算法推荐是一种权力,谁在约束它?

TTP的报告像一面镜子,照出的不只是两家公司的失职,是整个应用商店模式的病灶。搜索排序、广告竞价、自动补全,这些"中立"的技术模块,组合起来就是一套精准的 harmful content(有害内容)分发网络。

更深层的问题:当平台既当裁判(审核规则制定者)又当球员(广告收入分成者),它真的有动力清理自家货架吗?

英国的立法、美国的刑事定罪,都是事后惩罚。但4.83亿次下载已经发生,伤害已经造成。平台经济学里,有一个概念叫"负外部性"——企业把成本转嫁给社会,自己保留利润。裸化应用的泛滥,可能是这个词最丑陋的注脚。

苹果和Google不是没有能力解决。它们有能力威胁Grok下架,有能力在国会听证会上展示审核流程,有能力把"隐私"做成广告片。只是优先级不同。

TTP的调查发布后,两家公司都选择了"部分整改+全面沉默"。这种策略在过去十年屡试不爽。但法律环境在变,公众认知在变,"算法推荐"的神圣性也在被拆解。

下一个问题是:当平台的搜索框开始主动建议犯罪工具,"技术中立"这面盾牌,还能挡多久?