互联网正在经历一场"AI粗制化"的浪潮,亚马逊、Reddit这些平台纷纷沦陷。现在,这股风潮终于刮到了一个意想不到的地方——网络犯罪论坛。讽刺的是,那里的老派骗子们正为此大发雷霆。
爱丁堡大学安全研究员、高级讲师Ben Collier联合发表了一项尚未经过同行评审的研究,首次系统揭示了网络犯罪社区对生成式AI的真实态度。研究团队深入分析了通过Tor网络访问的网络犯罪论坛——常被媒体渲染为"暗网"的那些角落。他们发现,AI工具并未从根本上重塑网络犯罪的世界,这与一些更为耸动的警告形成鲜明对比。那些警告声称,AI正催生一场前所未有的诈骗瘟疫。
研究揭示了一个分层明显的图景。在金字塔顶端,大规模犯罪企业确实在用AI处理枯燥事务:检查代码错误、向Google求助编程问题。但在底层——研究人员口中的"低技能网络犯罪分子"运营的小型骗局中——情况截然不同。这些人对生成式AI产生了日益强烈的厌恶,宁愿回归老派的社会关系和古老的攻击脚本。
"人们不喜欢它,"Collier向《Wired》表示。他指出,这些通过Tor网络运营的低级别黑客仍然珍视有机连接和社交动态,而非AI。"这些本质上是社交空间。他们真的讨厌其他人在论坛上用AI,"Collier解释道,"我觉得很多人对AI有些矛盾,因为这削弱了他们自称技术高手的底气。"
《Wired》查阅的Hack Forums帖子印证了这一点。这个成立于2007年的黑客社交枢纽,充斥着对AI的嘲讽。"别再发AI垃圾了,"一位发帖人抱怨道。另一位用户则在道德诉求中直接提及社区感:"如果我想和AI聊天机器人说话,有很多网站可以去,但这不是我来HF的原因。我来这里是为了人际互动。论坛本质上是人类的。引入AI或其他生成的回复,完全违背了访问和维护这样一个论坛的目的。"
除了社交层面的抵触,研究人员还发现了对AI输出的普遍不信任。一位2025年的用户写道:"我觉得AI还不足以处理我要大量刷过的代码量,还要让它扩展功能。AI目前只能做基础的东西。它做得还不错。但我不会信任它处理更复杂的任务。"
这种不信任与技能焦虑交织在一起。对许多混迹于这些论坛的犯罪分子而言,技术能力不仅是作案工具,更是身份认同的核心。当AI能够生成看似专业的代码或文案时,区分"真高手"和"搭便车者"变得困难。这种模糊性威胁到了论坛内部的社会等级体系——在那里,声誉和信任是开展非法交易的硬通货。
研究团队强调,他们的发现与某些政策叙事形成张力。近年来,关于"AI降低犯罪门槛"的担忧不绝于耳,仿佛生成式AI会瞬间将普通人变成超级黑客。但实际情况更为微妙:工具确实在手,但犯罪社区自身的文化规范构成了意想不到的阻力。
这一现象与主流互联网平台的演变形成奇异的对照。Reddit的版主们正疲于应对AI生成的低质内容;亚马逊上充斥着AI撰写的虚假评论和产品描述。这些平台的用户同样抱怨体验劣化,但他们大多选择沉默或离开。而网络犯罪论坛的特殊性在于,其成员无法轻易诉诸外部监管或平台治理——他们必须依靠自发的社会制裁来维持秩序。
Collier的研究暗示,技术扩散从来不是单向的。即使在被认为"唯利是图"的犯罪经济中,文化惯性和社会结构也能显著减缓新工具的采纳速度。这并不意味着AI网络犯罪的威胁被高估——大规模企业级犯罪者确实在系统性使用这些工具。但它提醒我们,技术影响的分布是不均匀的,而"低端"犯罪市场的运作逻辑可能与我们的直觉相悖。
对网络安全从业者而言,这一发现具有战术意义。如果低技能犯罪者因社区压力而回避AI,那么监测和干预的重心或许应更多聚焦于那些不受此类约束约束的大型组织。同时,论坛内部的"反AI"话语本身也可能成为情报切入点——对 authentic human connection 的渴望,或许能为渗透这些封闭社区提供意想不到的社会工程路径。
更深层的启示关乎技术与社会的关系。无论是合法还是非法的在线空间,用户都在以各自的方式抵抗算法的入侵。Hack Forums上的骗子们或许动机不纯、手段违法,但他们对"人类论坛"的捍卫,与Reddit老用户对"互联网原初精神"的怀旧形成了跨界的共鸣。在AI重塑一切的时代,这种对人际真实性的执着,或许是比任何技术防御都更为顽固的堡垒。
热门跟贴