今年1月,苹果和谷歌应用商店被曝上架"脱衣"应用时,两家公司都在删帖、道歉、承诺整改。三个月后,Tech Transparency Project(科技透明度项目)的新报告发现——这些应用不仅没消失,还被平台主动推到了用户面前。
搜索即陷阱:平台算法成了"帮凶"
TTP的调查员在App Store和Google Play输入"nudify"(脱衣)、"undress"(去衣)等关键词后,系统返回的不仅是应用列表,还有同类应用的推广广告。这意味着用户搜索一次,平台会连环推荐更多类似工具。
报告统计,苹果商店现存18款此类应用,谷歌商店20款。更离谱的是分级——部分应用标注"E"级(全员可下载),儿童无需任何验证就能获取。一款叫Video Face Swap AI: DeepFace的应用,用女演员换脸到半裸身体的图片做广告,却对所有年龄层开放。
TTP主任Katie Paul对彭博社说:「不只是审核失职、持续批准、从中获利这么简单——平台自己在把用户导向这些应用。」
4.83亿次下载,1.22亿美元收入
报告披露了一组具体数字:这些应用累计下载量4.83亿次,创收约1.22亿美元。按平均客单价估算,每款应用的付费转化率都相当可观。
商业逻辑不难拆解。AI换脸、图像生成技术开源后,技术门槛骤降,但"脱衣"功能始终游走在灰色地带——大厂不敢碰,小团队疯狂涌入。应用商店成了流量入口,抽成15%-30%坐收渔利。
苹果的回应是"已下架15款",谷歌称"已暂停部分"。但TTP指出,被点名的应用至今仍在搜索结果前列,广告位也照常运转。平台方的"整改"更像公关话术,而非技术动作。
监管追不上产品迭代
英国儿童事务专员近期呼吁全面禁止针对儿童的AI深伪应用。美国多州已立法或提案限制色情深伪内容,加州总检察长上个月刚向马斯克旗下的X平台发函,要求其整改Grok生成的露骨深伪图片。
但法律滞后性明显。应用商店的地域合规可以"打地鼠"——某国下架,换个地区重新上架。更隐蔽的是功能拆分:同一套AI模型,在A应用叫"艺术滤镜",在B应用就是"一键脱衣"。平台审核很难穿透包装层。
谷歌其实有明确的反"脱衣"应用政策,苹果也禁止色情内容。但TTP的发现证明,政策文本和算法执行是两回事。搜索推荐系统的优化目标可能是"用户停留时长"或"广告点击率",安全审核只是后置过滤器。
为什么这件事值得科技从业者盯着
这不是简单的道德丑闻,而是一面镜子——照出AI应用分发链条的系统性漏洞。
对开发者:合规成本正在飙升。今天能上架的功能,明天可能因舆论或监管被一刀切。依赖平台流量的商业模式,抗风险能力极弱。
对平台方:推荐算法的"黑箱"正在反噬。当系统为了 engagement(用户参与度)主动推送高危应用,平台责任就从" hosting(托管)"滑向" distribution(分发)",法律定性完全不同。
对投资者:4.83亿下载量说明需求真实存在,但1.22亿美元收入集中在灰色地带,意味着这个市场的商业化路径极不稳定。任何监管收紧都可能瞬间抹掉估值。
最务实的判断是:应用商店的审核军备竞赛已经开打,但武器库还没建好。苹果谷歌现在的应对——事后下架、个案处理——是成本最低的姿态,不是解决方案。真正有效的机制需要重构搜索推荐逻辑,把安全审核前置到算法层,这会直接冲击平台的核心收入模型。
短期内,别碰这个品类。中期看,关注平台方是否会被迫公开审核规则的细节——那将是AI应用分发权力重新分配的信号。
热门跟贴