打开网易新闻 查看精彩图片

一份新研究盯上了16个Telegram群组,六周内扒出近280万条消息。参与者不是黑客组织,而是普通男性用户——他们在里面买卖监控工具、交换前女友照片、讨论怎么黑进妻子的手机。

欧洲非营利机构AI Forensics的这份报告,把Telegram长期被忽视的灰色地带摊在了阳光下。研究覆盖意大利和西班牙的社群,成员超过2.4万人,贡献了8.2万张图片、视频和音频。内容从非自愿亲密影像到"脱衣"AI服务,再到声称包含儿童性虐待材料的文件夹,形成了一条完整的骚扰产业链。

研究者Silvia Semenzin说了一句话,值得所有人记住:「我们总忘记,大多数受害者是普通女性,她们甚至不知道自己的照片被分享或篡改。」

这些男性受害者往往是他们认识的人——妻子、女友、朋友、前任。Telegram创始人Pavel Durov声称平台月活超10亿,但监管框架似乎还没跟上这个体量的破坏力。

从"言论自由"到犯罪温床:Durov的两难困境

从"言论自由"到犯罪温床:Durov的两难困境

Durov现在两头承压。俄罗斯正试图封锁这款应用,法国则对他展开刑事调查,指控其放任平台上的犯罪活动。Durov一概否认,但AI Forensics的发现让"技术中立"的说辞越来越站不住脚。

Telegram发言人回应WIRED时强调,平台每天用"定制AI工具"删除"数百万"条内容,欧洲政策明确禁止推广暴力、非法性内容、人肉搜索和非法商品服务。但研究者看到的现实是:群组里频繁出现获取、发布女性私人信息的讨论,Instagram和TikTok内容被随意搬运,间谍软件和黑客服务公开叫卖。

Semenzin认为,Telegram应该被归类为欧盟《数字服务法》下的"超大型在线平台",接受更严格的监管。目前它似乎游走在分类边缘,享受着宽松待遇,却承载着与巨头相当的风险。

监控工具平民化:几千元就能监视枕边人

监控工具平民化:几千元就能监视枕边人

研究中最触目惊心的发现是"服务化"的监控产业。男性用户不再只是被动消费内容,而是主动购买工具实施控制。这些工具门槛极低——不需要编程基础,几千元就能买到能远程读取短信、定位、相册的间谍软件。

群组里常见的话术是把这种行为包装成"抓出轨""求真相"。一位卖家在聊天记录里声称自己的工具能"24小时同步她的位置",另一位则推销"恢复已删除微信记录"的服务。买家晒单的截图里,被监控对象往往是标注为"老婆""前女友"的联系人。

这种"DIY监控"的蔓延,让亲密关系中的技术暴力变得前所未有的简单。研究者注意到,很多讨论带有明显的报复性质——分手后获取前任的私密内容,或威胁要公开以换取复合。一条被反复转发的消息写道:「她以为删了就没事,云端我早备份了。」

AI脱衣与深度伪造:从明星到隔壁同事

AI脱衣与深度伪造:从明星到隔壁同事

除了实时监控,群组里还流通着大量"加工"服务。AI脱衣工具的价格从几十到几百元不等,输入普通照片就能生成裸照。研究者发现,这类服务的请求对象已经从早期的明星网红,扩散到"帮我处理这张同学聚会合影"——照片里的女性往往毫不知情。

深度伪造视频的制作也在讨论范围内。有用户询问"能不能把她的脸换到那种片子里",底下回复是一串私信联系的暗号。这些交易很少直接发生在Telegram内,平台成了引流和建立信任的场所,最终付款和交付通过加密货币或第三方工具完成。

更隐蔽的是"资源包"的流通。卖家打包出售声称包含特定女性的文件夹,内容真假难辨,但购买者似乎并不在意。一个被多次转发的资源包描述是:「大学室友,四年存货,含毕业旅行酒店偷拍。」

平台治理的猫鼠游戏:删除与重建的循环

平台治理的猫鼠游戏:删除与重建的循环

AI Forensics的研究方法本身揭示了治理的困境。六周内追踪280万条消息,意味着研究者必须持续监控才能捕捉动态——而平台方的删除动作往往是滞后的。一个群组被举报关闭,成员会在几小时内迁移到新群组,用变体名称重新集结。

Telegram的频道和群组架构特别适合这种"韧性"。频道可以设置私密链接,群组支持20万人上限,消息转发机制让内容像病毒一样扩散。更关键的是,平台的加密承诺和海外服务器位置,让执法请求的处理变得复杂缓慢。

研究者注意到,部分群组已经开始使用"黑话"规避检测。"监控"变成"关心","裸照"变成"艺术照","黑客"变成"技术咨询"。这种语义漂移让自动化审核工具的效果大打折扣,而人工审核的规模显然无法匹配10亿用户产生的信息量。

Semenzin在2019年就曝光过类似的意大利Telegram频道,五年过去,现象非但没有消失,反而呈现出产业化、工具化的新特征。她的观察是:技术让实施暴力更容易,但社会对这种"日常化"的数字性别暴力仍然缺乏认知。

监管框架的缺口:当"超大型平台"标准遭遇现实

监管框架的缺口:当"超大型平台"标准遭遇现实

欧盟《数字服务法》对"超大型在线平台"(VLOP)的定义是月活用户超过4500万。按Durov公布的10亿数字,Telegram远超门槛,但目前它似乎未被正式列入名单。这种分类差异意味着更轻的义务:不需要系统性风险评估,不需要公开算法推荐机制,不需要接受独立审计。

AI Forensics的报告直接挑战了这一现状。研究者认为,Telegram的架构设计——大容量群组、频道广播、弱身份验证——本身就放大了特定类型的伤害风险。即使内容最终被删除,传播造成的损害往往不可逆。一张被转发的私密照片,即使在源头消失,也可能存在于无数私人相册和备份中。

法国对Durov的刑事调查,某种程度上是对这种"平台责任"边界的试探。但跨国司法的复杂性让个案难以形成普遍约束。Telegram的注册地、服务器分布、创始人国籍分散在不同法域,任何单一国家的行动都可能被架构设计所消解。

更值得追问的是用户端的驱动力。2.4万活跃参与者,背后是多大的潜在需求?研究没有给出答案,但群组内的互动模式显示,这不是少数边缘人的狂欢。晒单、评价、复购、推荐,这些电商常见的用户行为,在这里被复制到了监控工具和虐待内容的交易中。

技术暴力的日常化:当"关心"成为控制借口

技术暴力的日常化:当"关心"成为控制借口

研究者反复提到的一个细节是施暴者的自我合理化。购买监控工具的男性很少承认自己在实施暴力,取而代之的是"确认她是否忠诚""保护家庭""防止孩子学坏"等叙事。这种话语转换让技术暴力获得了道德许可,也让受害者的求助变得更加困难。

一位研究助理在笔记中记录了一段典型对话:买家询问"能不能不被发现地安装",卖家回复"她不会知道的,图标可以隐藏",买家追问"如果被发现怎么办",卖家说"你就说是手机自带的 parental control(家长控制)功能」。这套话术把间谍软件包装成家庭安全工具,模糊了控制与保护的界限。

这种模糊性也体现在法律层面。许多国家的反跟踪法立法时尚未预见智能手机监控的普及,取证困难、管辖权争议、量刑标准不一,让实际追诉率极低。AI Forensics建议的"超大型平台"分类,某种程度上是想把治理压力前置到平台环节,而非依赖事后司法救济。

但平台治理本身也有代价。更严格的身份验证可能伤害需要匿名保护的群体——政治异见者、家暴受害者、LGBTQ+社群。Telegram的早期用户很多正是被其他平台的审查政策所驱逐。如何在"保护"与"开放"之间划定边界,没有简单的技术解决方案。

研究发布的时机颇具戏剧性。Durov正在俄罗斯发动舆论战,把自己塑造成抵抗审查的自由斗士;同一周,法国的法庭文件正在梳理他名下平台的具体犯罪案例。这两种叙事之间的张力,正是当下互联网平台治理的核心困境。

AI Forensics没有给出政策建议的详细清单,但Semenzin的表态很明确:「平台不能再用'技术中立'当挡箭牌了。」她的团队计划扩大研究范围,下一步可能覆盖德语区和东欧的类似社群。初步数据显示,这些模式具有跨文化的普遍性,只是具体的服务名称和支付方式有所差异。

对于普通用户,这份研究留下的最不安的启示或许是:那些你以为只发生在新闻里的监控和泄露,可能正以更廉价、更隐蔽的方式,渗透在日常关系的缝隙中。当你看到伴侣的手机屏幕亮起,你怎么知道那是一次普通的通知推送,还是远程同步完成的信号?

研究者最后记录了一个未被回答的问题:在那些被监控的女性中,有多少人最终发现了真相,又有多少人至今仍在不知情中生活?