2023年英国国家儿童保护数据库显示,涉及生成式人工智能(Generative AI,一种能自动创建文本、图像、视频的技术)的儿童虐待案件同比增长340%,但地方社工机构的识别率仅为11%。
这个数据来自Laura Bates的新书《The New Age of Sexism》的延伸调研。Bates花了18个月追踪技术滥用与性别暴力的交叉地带,发现一个被忽视的盲区:当AI生成的儿童性虐待内容(AI-CSAM)开始流入家庭纠纷、监护权争夺场景时,现有的儿童保护框架几乎处于失语状态。
技术滥用正在改写"证据"的定义
Bates在书中记录了一个典型案例。2022年,英格兰某家庭法庭审理一起监护权纠纷,父亲提交了一段"视频证据"——母亲 allegedly 在争吵中对孩子进行身体威胁。视频画质模糊、角度固定,但母亲的声线和措辞与日常高度吻合。
社工最初将其标记为"高风险家庭环境"。直到技术鉴定介入,才发现视频由深度伪造(Deepfake,一种利用AI替换人脸或声音的技术)工具生成,原始素材来自母亲三年前的社交媒体直播片段。
关键转折点在于:从提交到被识破,中间间隔了11个月。期间母亲被限制探视,孩子被安置在临时寄养家庭。Bates采访的办案社工承认:"我们接受过识别身体虐待的培训,但没人教过我怎么判断一段视频是不是AI做的。"
这种能力缺口不是个案。英国儿童保护从业者协会2024年调查显示,83%的一线社工表示"无法区分AI生成内容与真实影像",76%的机构没有与技术鉴定部门建立常规协作机制。更麻烦的是,AI工具的普及速度远超培训体系的更新周期——2023年市面上可用的开源深度伪造工具超过1200种,而针对儿童保护场景的技术识别指南,英国政府直到2024年3月才发布第一版。
当"风险"成为可操控的叙事工具
Bates的核心论点之一是:技术滥用正在与厌女文化形成合谋。在儿童保护领域,这种合谋表现为"风险叙事"的武器化。
她分析了2021-2023年间英国家事法庭的127份公开判决书,发现涉及AI生成"证据"的案件中,71%的提交方为男性当事人,且指控方向高度集中——母亲的情绪稳定性、育儿能力、甚至过往恋爱史。这些指控往往难以证伪:一段伪造的音频可以解释成"手机录音质量差",一张AI生成的聊天记录截图可以被当作"删改过的原始记录"。
「系统对'风险'的敏感度是不对称的,」Bates在书中写道,「当一个母亲被指控'可能'有暴力倾向时,预防性原则会倾向于相信并采取行动。但当同样的技术被用来诬陷她时,验证成本却高得惊人。」
这种不对称性有数据支撑。英国司法部2023年统计,家事法庭中因"证据真实性存疑"而启动技术鉴定的案件,平均审理周期延长14个月,费用增加£23,000。对于依赖法律援助的当事人,这往往意味着被迫接受不利的和解方案。
伤害评估的滞后与量化困境
更深层的挑战在于:即使识别出技术滥用,现有的伤害评估框架也难以准确衡量其影响。
传统儿童保护评估量表(如Barnardo's的Safeguarding Assessment Framework)主要关注三类指标:身体伤害痕迹、心理行为异常、环境风险因素。但AI驱动的虐待往往绕过这些指标——孩子可能从未直接接触伪造内容,却生活在"母亲被系统认定为危险人物"的现实后果中。
Bates采访了一位化名"Elena"的母亲。她的案例档案显示"无直接儿童伤害记录",但孩子经历了完整的寄养安置、学校转介、心理评估流程。两年后案件反转,Elena恢复监护权,但孩子已出现分离焦虑和信任障碍。「社工问我,'既然最终证明你是清白的,孩子为什么会受伤?'」Elena说,「他们不理解,被系统'保护'的过程本身就是伤害。」
这种"程序性伤害"目前缺乏标准化的评估工具。英国国家儿童保护数据库的编码系统中,最接近的类别是"错误安置导致的心理创伤",但2023年全英仅有3例被正式记录。Bates认为实际数字"可能是记录的数十倍",因为大多数案例被归类为"家庭内部冲突"或"监护权纠纷的附带影响"——仿佛技术滥用只是背景噪音,而非独立的致害因素。
系统响应的三种路径与各自的麻烦
面对这些裂缝,Bates梳理了目前出现的三类应对尝试,每一类都有明显的 trade-off。
第一类是"技术补丁"路线。英国一些郡级议会开始试点AI检测工具,自动标记提交给社工的数字证据。但Bates指出,这带来了新的公平性问题:检测工具的误报率在低分辨率视频上高达34%,而经济弱势家庭更可能使用老旧设备录制"证据"。「技术中立是个神话,」她写道,「检测工具的设计假设本身就嵌入了对'高质量证据'的偏好。」
第二类是"程序收紧"路线。2024年1月,英国家事法庭程序委员会建议,所有涉及数字证据的监护权案件强制引入技术鉴定前置程序。但这项建议遭到法律援助机构的强烈反对——鉴定费用将使大量案件无法进入实质审理。Bates的计算显示,全面执行该建议可能导致年度法律援助支出增加£1.7亿,相当于当前预算的23%。
第三类是"能力建设"路线,也是Bates相对倾向的方向。她详细记录了芬兰的一个试点项目:将基础AI识别培训纳入社工必修课程,同时建立"技术疑点快速响应"机制,允许一线人员在48小时内获得远程技术支持。该试点运行18个月后,AI相关证据的识别准确率从11%提升至67%,平均处理周期缩短4个月。但Bates也承认,芬兰的人口规模(550万)和数字化基础设施与英国差异显著,直接移植的可行性存疑。
「没有无痛的解决方案,」Bates在书末的访谈中说,「但目前的默认选项是让个体从业者承担全部认知负荷,这是最坏的选择。」
英国教育部2024年4月发布的回应文件显示,政府计划在2025年前将"数字证据基础识别"纳入社工资格认证体系,但具体课程大纲尚未公布。与此同时,国家犯罪署的月度简报显示,2024年第一季度新发现的AI-CSAM案件数量已超过2023年全年总和。
如果培训周期赶不上技术迭代速度,下一个被错误安置的孩子,会在什么时候出现?
热门跟贴