推出了一款新的水印工具,用于标记图像是否由人工智能生成。

该工具名为 SynthID,目前仅对人工智能图像生成工具 Imagen 有效,用户可以在云的机器学习平台 Vertex 上使用该工具。

用户将能够使用 Imagen 生成图像,然后选择是否添加水印。希望它能帮助人们判断人工智能生成的内容是否被当作真实内容,或者有助于保护版权。

在过去的一年里,生成式人工智能模型的流行也带来了人工智能生成的深度伪造(Deepfakes)、非感官色情和版权侵权案例的激增。

水印技术是一种将信号隐藏在人工智能生成的文本或图像中的技术,它已成为遏制此类危害的最流行想法之一。

2023 年 7 月,美国白宫宣布已获得 、和 等领先人工智能公司的自愿承诺开发水印工具,以打击人工智能生成内容的错误信息和滥用。

在 2023 年 5 月的 I/O 大会上, CEO 桑达尔·皮查伊()表示,该公司正在构建自带水印和其他技术的模型。 是第一家公开推出此类工具的大型科技公司。

传统的水印是在图像上添加可见覆盖层,或者将信息添加到其元数据中。但 研究副总裁布什美特·科里()表示,这类方法是“脆弱的”,当图像被裁剪、调整大小或编辑时,水印可能会丢失。

SynthID 是使用两个神经网络创建的。一个使用原始图像,然后生成一张看起来几乎相同的图像,但有些像素经过了微妙的修改。这创建了一个人眼看不见的嵌入图案。

第二个神经网络负责捕捉这些图案,并告诉用户它是否检测到水印,怀疑图像有水印,或者发现它没有水印。说,SynthID 的设计方式意味着,即使图像被截屏、编辑、旋转或调整大小,水印仍然可以被检测到。

芝加哥大学教授 说, 并不是唯一一家研究这种水印方法的公司。 曾参与研究防止艺术家作品被人工智能系统抓取的系统。

类似的技术已经存在,并在开源人工智能图像生成器 Stable Diffusion 中使用。 也对水印技术进行了研究,尽管它尚未推出任何公开的水印工具。

声称, 的水印比之前为图像创建水印的努力更能抵抗篡改,但仍然不能完全免疫。

但 持怀疑态度。“随着时间的推移,很少或根本没有水印是无法攻破的,”他说。早期对文本水印的研究发现,它们通常在几个月内就很容易被破坏。

他补充道,攻击者在破坏水印方面有利可图。例如,声称深度伪造的内容是某个犯罪或事件的真实照片证据,但实际上是莫须有的指控。

说:“攻击者会试图将深度伪造图像宣传为真实图像,或将真实照片抹黑为伪造照片。这可能为他们带来很多好处,所以他们会无所不用其极,包括裁剪、有损压缩或改变颜色等手段。”

尽管如此, 的人工智能和媒体完整性项目负责人克莱尔·莱博维奇()表示, 推出的工具是一个很好的第一步,可能会在该领域更好地分享哪些技术有效,哪些技术无效。

她说:“这件事的复杂性,不是我们无所作为的理由。”

告诉《麻省理工科技评论》,水印工具是“实验性的”,并表示该公司希望在该工具更广泛地推出之前,观察人们如何使用它,了解它的优势和劣势。

他拒绝透露 是否会让该工具更广泛地用于除 Imagen 以外的生成式人工智能图片工具。他也没有说明是否会在其人工智能图像生成系统中添加水印。

初创公司 的人工智能研究员萨沙·路驰尼()认为,这限制了该工具的实用性。她补充道,决定保留该工具的所有权,这意味着只有才能嵌入和检测这些水印。

说:“如果你在图像生成系统中全面添加水印组件,那么像深度伪造色情之类的东西所带来的危害和风险就会更小。”

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

运营/排版:何晨龙