在人工智能生成内容越来越普遍的时代,对作者身份和真实性的担忧正在上升。人工智能可以轻松创建逼真的文本、图像和其他形式的媒体,这给区分人工创作和人工智能生成的作品带来了挑战。因此,剽窃、侵犯版权和错误信息传播等问题变得突出,这增加了对验证内容来源的工具的需求。
谷歌DeepMind与Hugging Face合作开发了SynthID Text,这是一种水印技术,旨在使人工智能生成的文本更容易识别。该工具现已开源,可通过谷歌负责任GenAI工具包访问。
去年,谷歌DeepMind推出了一种图像水印解决方案,此后该技术也扩展到了人工智能生成的视频。今年5月,该公司推出了SynthID,并宣布将把SynthID集成到其Gemini应用程序和在线聊天机器人中,并在人工智能模型和数据集的开源存储库Hugging Face上免费访问该工具。
目前,SynthID Text仅适用于谷歌模型生成的内容。然而,开源的目的是扩大其与各种工具和平台的兼容性。
“现在,其他(生成性)人工智能开发人员将能够使用这项技术来帮助他们检测文本输出是否来自他们自己的(大型语言模型),使更多的开发人员更容易负责任地构建人工智能,”谷歌DeepMind研究副总裁Pushmeet Kohli说。
在10月23日《自然》杂志上的一篇论文中详细介绍了SynthID Text,其工作原理是将水印编码到人工智能生成的文本中,以帮助识别特定语言模型是否产生了水印。重要的是,这个过程不会影响LLM的核心功能,并保持生成内容的质量,确保水印不会改变用户体验或降低文本流畅性。
需要澄清的是,SynthID不是为检测任何语言模型生成的文本而设计的。相反,它专门为指定LLM的输出添加水印。
大型语言模型将语言分解为“标记”,可以是字符、单词或短语。他们通过根据跟随前一个令牌的可能性分配百分比分数来预测下一个令牌;分数越高,被选中的机会就越大。
SynthID的工作原理是通过调整特定令牌嵌入水印的概率来对AI生成的内容进行水印处理。它通过分析有水印和无水印文本中单词的概率分数来检测该水印。
Deepmind研究人员采取的方法并不新鲜。ChatGPT背后的公司OpenAI正在测试类似的方法。此外,得克萨斯大学奥斯汀分校的计算机科学家Scott Aaronson以及马里兰大学的John Kirchenbauer及其同事做出了重大贡献,他们开发了水印和检测算法。
DeepMind的团队通过成功地大规模实施这一概念,同时保持了较低的计算成本,从而增强了这一概念。根据SynthID Text开发人员的说法,该工具是“首次大规模部署生成性文本水印”。
在一项涉及约2000万个聊天机器人响应的研究中,DeepMind的研究人员将标记有SynthID的聊天机器人与未标记的聊天机器人进行了比较。该公司表示,分析显示用户没有察觉到文本质量或有用性的任何差异,这表明SynthID可以在提供基本识别功能的同时保持输出完整性。
虽然SynthID Text提供了关键的好处,但它也有明显的局限性。水印可以抵抗轻微的篡改,但可能无法抵抗重大的更改,特别是在内容被大量重写或翻译的情况下。此外,当人工智能生成的文本被翻译成不同的语言时,其可靠性会降低。
该工具的有效性也将受到需要事实信息的提示的挑战,因为这限制了SynthID在不改变含义的情况下预测下一个单词的能力。其他潜在的局限性包括对高度修改的文本的检测范围缩小以及缺乏上下文敏感性。
对人工智能生成的文本添加水印的需求是显而易见的。然而,他们必须赢得用户的信任,这样的工具才能有效。这种水印工具必须防水才能可靠。DeepMind决定公开SynthID Text模型,这标志着向前迈出了重要的一步,但该技术仍处于早期阶段。需要进一步的研究和开发来确保水印方法的鲁棒性和可靠性。
热门跟贴