去年有394名英国未成年人向专门机构求助,说自己裸照被骗子捏在手里要钱。这个数字比前一年涨了34%,创下新高。更刺眼的是,98%的受害者是14到17岁的男孩——一个常被公众忽略的群体。
一条私信如何变成噩梦
性勒索(sextortion)的剧本并不复杂。骗子在社交平台假扮同龄人或恋爱对象,用话术诱导受害者发送私密照片或视频。一旦得手,立刻变脸威胁:不给钱,就让你的朋友、家人、全校同学看到。
Report Remove服务由互联网观察基金会(IWF)与NSPCC旗下的Childline联合运营,专门帮未成年人撤下网上流传的私密影像。该机构最新数据显示,2024年接到的勒索报案中,14至17岁男性青少年几乎包揽了全部受害者席位。
这种模式已经酿成多起悲剧。英国多名青少年在收到勒索威胁后自杀,其中包括16岁的Murray Dowey。他的父母正在起诉Meta,指控其未能建立足够的安全防护机制。
Murray的母亲Ros Dowey看到新数据后表示:"令人恐惧且失望。社交媒体公司明明清楚平台上正在发生犯罪,却还是不采取安全措施,到底要怎样他们才会负责?"
父亲Mark Dowey补充说,在针对Meta的诉讼进入法庭程序之前,他们会持续让这个问题保持曝光。
科技公司的"自愿"承诺为何失效
Molly Rose Foundation(MRF)是一家互联网安全慈善机构,其立场很明确:科技公司做得"远远不够"。该组织呼吁政府强制要求社交平台采取行动,并点名苹果和谷歌——iOS和安卓系统的拥有者——必须在手机端部署裸照检测技术。
IWF政策负责人Hannah Swirsky的表态更直接:"我们很清楚,如果公司自己不愿意做,政府必须介入确保他们执行。"
NSPCC的表态同样强硬:反裸照检测应当成为设备的强制标配,而非可选功能。
这些呼声指向一个尴尬现实。苹果曾在2021年宣布为iCloud开发儿童安全检测功能,计划扫描上传至云端的照片是否涉及儿童性虐待材料(CSAM)。方案一出,隐私倡导者强烈反对,苹果最终搁置了该计划。谷歌的安卓系统虽有部分家长控制功能,但尚未在系统层面部署主动的裸照发送拦截机制。
两边的困境都很真实。平台若主动扫描用户内容,会被批评为侵犯隐私;若什么都不做,又要为平台上的犯罪承担道德甚至法律责任。但MRF和IWF的论点在于:检测技术可以只在设备本地运行,无需上传云端,这在技术上已经可行,缺的是执行力。
为什么男孩成了绝对主力
98%的男性受害者比例打破了"性勒索主要针对女孩"的刻板印象。安全研究人员分析,骗子选择男孩有多重考量:这个年龄段男性更可能因羞耻感而沉默、更快屈服于威胁、更少向成年人求助。
犯罪者的操作也经过精密计算。他们通常在Instagram、Snapchat等平台筛选目标,用虚假账号建立信任,诱导视频通话并偷偷录屏,或者索要照片后立即勒索。付款要求往往不高——几十到几百英镑——但受害者一旦转账,会被要求持续支付。
英国国家犯罪局(NCA)数据显示,性勒索犯罪自2020年以来持续上升,2023年接到的相关报案超过3000起。由于大量受害者选择不报案,实际数字被认为远高于统计。
Report Remove服务的394起报案只是冰山一角。该服务主要处理"影像已经或可能上网"的情况,许多勒索在影像尚未传播时就因受害者付款而结束,从未进入统计。
立法压力与平台博弈
英国《在线安全法案》(Online Safety Bill)已于2023年通过,要求平台保护未成年人免受有害内容侵害。但法案的执行细则和罚款机制仍在磨合期,科技公司普遍采取"先观望"策略。
MRF的呼吁代表了一种更激进的监管思路:不等待平台自愿改进,直接强制操作系统层级的技术介入。这在欧盟《数字服务法》和美国各州立法中尚未成为主流,但英国若率先行动,可能形成示范效应。
苹果和谷歌的沉默有其商业逻辑。主动部署检测功能等于承认平台对未成年人安全负有直接责任,这可能打开诉讼闸门。Murray Dowey案若进入实质审理,将为后续诉讼提供重要判例。
但技术解决方案的成熟度已经超出政策节奏。苹果的Neural Engine芯片、谷歌的Tensor芯片均具备本地AI运算能力,实时分析图像内容无需上传服务器。问题在于,两家公司都不愿在没有法律强制的情况下率先迈出这一步。
家长的困境与信息缺口
多数受害男孩的父母在事发前对性勒索一无所知。Ros Dowey在采访中提到,Murray从未向家人透露过任何异常,直到警方通知他们儿子已经离世。
现有安全教育主要针对女孩,内容集中于"不要发送照片"。但对男孩而言,犯罪者的切入点往往是"验证关系"或"证明信任",而非直接索取。这种话术差异使得通用安全建议效果有限。
Report Remove服务的数据显示,主动求助的未成年人中,约60%在影像已被发布后才采取行动。这意味着预防性干预的窗口期被大量浪费——不是因为技术不可行,而是因为受害者不知道求助渠道,或不敢声张。
IWF与NSPCC正在推动将性勒索教育纳入学校课程,但课程更新速度远落后于犯罪手法的演变。骗子已经开始使用深度伪造(deepfake)技术合成虚假影像,即使受害者从未发送过真实照片,也可能面临"有图有真相"的勒索。
一个测试行业底线的案例
Murray Dowey案的特殊性在于,其父母选择直接起诉Meta而非寻求刑事途径。这一策略将平台责任问题从监管辩论推向司法裁决。
Meta的辩护逻辑可以预见:平台无法监控所有私信,用户行为超出合理控制范围。但原告方可能援引《在线安全法案》中的"注意义务"条款,主张Meta对已知风险模式的漠视构成过失。
案件结果将影响整个行业的合规成本计算。若法院认定平台需为私信中的犯罪承担部分责任,将迫使科技公司重新评估安全投入的经济账——是主动部署检测技术,还是事后支付赔偿金和声誉损失。
苹果和谷歌的处境更为微妙。作为操作系统层,它们与用户内容的距离比社交平台更远,法律责任的边界也更模糊。但MRF的呼吁若获政府响应,这种距离感将被强制打破。
技术方案的争议与可行性
裸照检测技术的核心争议在于误报与隐私的平衡。苹果2021年方案的CSAM检测基于已知图像哈希值比对,误报率极低,但仍引发"滑坡效应"担忧:今日扫描儿童安全,明日是否扫描其他内容?
性勒索场景的技术要求有所不同。无需比对已知违法图像,而是识别用户即将发送的内容是否包含裸露。这种" outbound检测 "完全在设备本地运行,不依赖云端数据库,理论上隐私风险更低。
但技术可行不等于产品可用。苹果和谷歌需要回答:检测触发后如何干预?直接阻止发送可能激怒青少年用户,温和提醒又可能被无视。家长通知功能同样敏感——许多青少年宁愿被勒索也不愿父母知道。
一些安全研究者建议采用"冷却期"设计:检测到潜在风险内容后,延迟发送并弹出 contextual 提示,解释性勒索的常见套路。这种干预不阻断用户最终选择,但争取了决策时间。
没有科技公司公开测试过这类方案。MRF的批评正是针对这种"不作为的默契"——各方都知道问题存在,都在等待别人先行动。
全球监管的不同路径
英国的立法压力并非孤立现象。美国多州正在推进类似法案,要求设备预装色情内容过滤功能。欧盟《数字服务法》侧重平台透明度报告,对操作系统层级的干预保持谨慎。
澳大利亚走得更远。2024年底通过的《在线安全修正案》赋予监管机构强制要求平台部署特定技术的权力,包括年龄验证和内容检测。该法案被科技行业强烈反对,但政府立场强硬。
这些分歧反映了更深层的治理困境:当私人通信成为犯罪渠道,国家干预的边界在哪里?性勒索的受害者是明确的,但解决方案可能影响的用户范围远超受害者群体。
英国的数据为这场辩论提供了新弹药。34%的增长率和98%的男性受害者比例,使得"自愿合作"的温和监管思路显得苍白。IWF和NSPCC的联合表态显示,连传统上倾向合作的慈善机构也失去了耐心。
犯罪经济的演化
性勒索的产业化程度常被低估。有组织犯罪集团在国际层面运营,使用翻译工具和脚本化话术同时接触数百名潜在受害者。加密货币支付使得资金追踪困难,而影像的数字化特性意味着一次得手可以无限复制勒索。
英国国家犯罪局估计,单个犯罪组织每月可从性勒索活动中获利数万英镑。低成本、高回报、低风险的组合,使得打击行动如同"打地鼠"——关闭一个账号,十个新账号出现。
这种经济逻辑解释了为什么平台层面的干预至关重要。犯罪者的效率依赖于规模化接触受害者,若主流平台能显著降低初始接触的成功率,将直接压缩犯罪经济的利润空间。
但平台的商业模型与这一目标存在张力。推荐算法优化用户停留时长,而犯罪者恰恰是"高互动"用户。安全团队与增长团队之间的优先级冲突,在内部资源分配中并不罕见。
一个尚未回答的问题
Report Remove服务的数据发布于2025年初,覆盖2024年全年。394起报案、34%增长、98%男性受害者——这些数字已经引发政策讨论,但尚未转化为具体行动。
苹果和谷歌保持沉默。英国政府的下一步立法时间表不明。Murray Dowey案的审理日期尚未确定。
Ros Dowey的质问仍在等待回应:当公司明知犯罪正在发生,还需要多少受害者才能推动改变?
热门跟贴