该软件通过对高优先级案例进行分类来协助人工审核员

打开网易新闻 查看精彩图片

遏制儿童性虐待材料 (CSAM) 的传播是大型互联网公司的首要任务。但对于那些在前线的人来说,这也是一项艰巨而令人痛苦的工作——必须识别和删除滥用内容的人类版主。这就是谷歌今天发布旨在帮助这些人的免费人工智能软件的原因。

该领域的大多数技术解决方案都是通过根据先前识别的滥用材料目录检查图像和视频来工作的。(例如:PhotoDNA,一种由微软开发并由 Facebook 和 Twitter 等公司部署的工具。)这种被称为“爬虫”的软件是阻止人们共享已知的先前识别的 CSAM 的有效方法。但它无法捕获尚未标记为非法的材料。为此,人类版主必须亲自介入并审查内容。

谷歌人工智能工具对标记的材料进行分类,帮助版主更快地工作

这就是谷歌新的人工智能工具将提供帮助的地方。利用该公司在机器视觉方面的专业知识,它通过对标记的图像和视频进行分类并“优先考虑最有可能的 CSAM 内容进行审查”来协助版主。这应该允许更快的审查过程。谷歌表示,在一项试验中,人工智能工具帮助版主“在同一时间段内对 700% 以上的 CSAM 内容采取了行动”。

Internet Watch Foundation (IWF) 副首席执行官 Fred Langford在接受The Verge采访时表示,该软件将“帮助像我们这样的团队更有效地部署我们有限的资源。” “目前,我们只使用纯粹的人类来浏览内容并说,'是的','不,”兰福德说。“这将有助于分类。”

IWF 是致力于阻止 CSAM 在线传播的最大组织之一。它位于英国,但由包括谷歌在内的大型国际科技公司提供资金。它聘请人工审核团队来识别滥用图像,并在十多个国家/地区运营举报热线,供互联网用户举报可疑材料。它还开展自己的调查行动,识别共享 CSAM 的站点并与执法部门合作将其关闭。

Langford 说,由于“对人工智能的幻想”的性质,IWF 将彻底测试谷歌的新人工智能工具,以了解它如何执行并适合主持人的工作流程。他补充说,像这样的工具是迈向全自动系统的一步,该系统可以识别以前看不见的材料,而无需人工干预。“那种分类器有点像我们竞技场中的圣杯。”

但是,他补充说,只有在“明确”的情况下才应该信任此类工具,以避免让滥用材料漏网。“几年前,我会说这种分类器还需要五六年的时间,”兰福德说。“但现在我认为我们离创造在某些情况下完全自动化的东西只有一两年的时间。”