一条AI生成的视频,让美国德州某学区总监对着镜头唱情歌。画面里还有AI版内塔尼亚胡和爱泼斯坦伴舞,配文却是该学区的官方介绍口吻。10.7万次点赞,评论区刷着"Gem alarm"——学生们把这当成挖到宝了。
这不是孤例。Instagram和TikTok上,一批学生运营的"诽谤页面"(slander pages)正在用AI工具批量生产针对教师的恶搞内容。从普通恶作剧到涉及毒品暗示、极端符号的恶意攻击,工具门槛的降低正在重塑校园权力关系。
一、Viggle AI:40万用户的"表情包核武器"
这些视频的核心工具是Viggle AI,一款图像转视频工具。用户上传任意人物照片,即可将其嵌入参考视频,或生成对口型片段。今年2月,该平台宣布用户突破4000万。
伦敦国王学院下属的全球极端主义与技术网络(GNET)在最新博文中将其定义为"自发极端主义宣传的新前沿"。该机构追踪发现,Viggle AI的易用性大幅降低了制作政治讽刺或恶意内容的门槛。
一个已被删除的TikTok视频案例:教师的脸被叠加到有人在浴室抽搐的画面上,配文"Take fent or be useless"——把抽搐暗示为芬太尼吸食后的反应。这种内容从构思到发布,熟练用户只需几分钟。
技术层面的低门槛带来了传播层面的高扩散。传统校园恶作剧依赖口耳相传或物理张贴,现在一条视频可以在几小时内突破十万播放,且算法会将其推送给最可能互动的人群——也就是同校学生。
二、"Looksmaxxing"黑话:网络亚文化的线下渗透
这些页面的语言系统并非凭空创造。大量术语直接搬运自"男性气质提升"(looksmaxxing)论坛——一个教男性如何改善外貌的亚文化圈层,但部分内容已滑向厌女和极端化。
"Mog"意为用外貌碾压另一男性;"sub5"原指颜值低于5分(满分10分)的人,后被极端化使用,暗示"非人级别的丑陋"。这些词汇在教师恶搞视频中被频繁使用,形成了一套圈内人秒懂、圈外人困惑的暗语体系。
更隐蔽的是符号挪用。某案例中,教师被编入"阿加尔塔"(Agartha)——新纳粹神秘主义中的虚构纯白领域。教师眼睛被P成白色表示"获准进入",红色则表示"被拒绝"。这种编码让恶意内容得以在平台审核的眼皮底下流通。
学生们并非不知道这些符号的渊源。恰恰相反,选择极端符号本身就是一种"圈内人认证"——证明制作者足够熟悉网络深处的亚文化,有资格运营这个页面。
三、从恶作剧到声誉攻击:动机与后果的错位
传统校园恶作剧的边界相对清晰: locker里的青蛙、黑板上的涂鸦,事发后有明确的追责路径。但AI诽谤页面的运作逻辑完全不同。
首先是匿名性的强化。页面运营者通常使用假名,内容发布在第三方平台,学校缺乏直接管辖权。即使能追溯到具体学生,法律层面的"诽谤"认定在涉及公众人物(如学区官员)时门槛更高。
其次是动机的混杂。部分创作者明确追求流量——@thewyliefiles的10.7万赞是实打实的社交货币。另一部分则更接近游戏心态:测试工具的极限,看谁能做出更"出格"的内容而不被封号。还有一层是代际权力倒置的快感:平时处于被管理位置的学生,现在可以公开"处置"管理者的形象。
但后果正在超出"玩笑"范畴。被P图吸毒的教师、被编入纳粹符号体系的同事——这些内容一旦脱离原始语境传播,可能对当事人的职业生涯造成不可逆影响。而算法的推荐机制恰恰在奖励最具争议性的内容。
四、平台与学校的责任真空
Viggle AI未回应置评请求。这种沉默是行业常态:工具开发者通常以"中立平台"自居,将内容审核责任推给下游的分发平台。
Instagram和TikTok的审核机制则面临结构性困境。AI生成内容的检测本身就在军备竞赛中落后;亚文化黑话和符号编码让关键词过滤失效;而"讽刺"与"诽谤"的界限,在不同文化语境中本就模糊。
学校方面的应对更为被动。德州Crandall高中的案例显示,当情况"变得更加极端"时,校方往往缺乏即时有效的干预手段。法律诉讼周期长,平台投诉响应慢,而内容传播的速度以小时计。
一个值得注意的细节:@thewyliefiles的账号简介采用了大语言模型式的官方口吻,与其恶搞内容形成讽刺性反差。这种"伪装成机构声明"的格式,可能是为了规避平台审核,也可能是对官僚主义语言的戏仿——无论哪种,都显示出创作者对平台规则的精细揣摩。
五、工具民主化的阴暗面
4000万用户的Viggle AI不是第一个、也不会是最后一个降低视频合成门槛的工具。从Deepfakes到如今的实时生成,技术迭代的速度持续快于社会规范的建立。
这个案例的特殊性在于参与者:不是专业造谣者,而是普通高中生。他们使用的不是地下黑客工具,而是App Store里评分4.8的免费应用。当"制作一条可能毁掉他人声誉的视频"变得比"解一道二次函数题"更简单时,原有的约束机制——道德直觉、社交压力、后果预估——都需要重新校准。
更深层的困惑在于:这些学生中的大多数,可能并不真正认同他们使用的极端符号。阿加尔塔、新纳粹神秘主义、芬太尼文化——它们被挪用,很大程度上是因为"够 edgy(尖锐/出格)",能在同侪竞争中脱颖而出。但当符号脱离语境大量传播时,其原始含义并不会自动消解,而是可能吸引真正的认同者,或成为外部观察者判断群体的依据。
技术工具的中立性是个方便的托词。但设计选择——比如Viggle AI是否提供人脸使用的风险提示,平台是否对特定符号组合触发人工复核——确实在塑造用户行为。目前看来,这些环节都处于放任状态。
校园诽谤页面的兴起,本质上是一场关于"谁有权定义他人形象"的权力转移。当AI工具把这种权力交到十几岁少年手中时,我们或许需要比"加强网络素养教育"更具体的应对方案——尽管没人知道那应该是什么。
至少,那个对着镜头唱情歌的学区总监,现在肯定比任何人都更理解什么叫"技术惊喜"。
热门跟贴