谷歌表示,其旗舰AI聊天机器人Gemini正被大量怀有商业目的的人轮番“轰炸”,他们试图通过反复提问来克隆它,有时提问成千上万次——其中一次活动就对Gemini提问了超过10万次。

在周四发布的一份报告中,谷歌表示,其越来越频繁地遭到“蒸馏攻击”,也就是通过反复提问,诱使聊天机器人暴露其内部工作原理。谷歌将这种活动描述为“模型提取”,即潜在的抄袭者试图摸清系统中的模式和逻辑,以了解其工作原理。报告称,攻击者似乎想利用这些信息来构建或增强自己的人工智能。

谷歌认为,罪魁祸首主要是寻求竞争优势的私营公司或研究人员。一位发言人告诉NBC新闻,谷歌认为这些攻击来自世界各地,但拒绝透露有关嫌疑人的更多已知信息。

谷歌威胁情报小组首席分析师约翰·赫尔特奎斯特表示,针对Gemini的攻击范围表明,这些攻击很可能正在或即将同样普遍针对小型公司的定制化AI工具。

“我们就像是矿井里的金丝雀,预示着更多的事故会发生,”赫尔特奎斯特说。他拒绝透露嫌疑人信息。

该公司表示,蒸馏是知识产权盗窃。

科技公司已经花费了数十亿美元,争先恐后地开发人工智能聊天机器人或大型语言模型,并认为其顶级模型的内部机制是价值极高的专有信息。

尽管它们有机制试图识别蒸馏攻击并揪出幕后黑手,但主流大模型天生就扛不住蒸馏攻击,毕竟谁都能在网上用它们。

ChatGPT的母公司OpenAI去年指责中国对手DeepSeek通过蒸馏攻击来优化自己的模型。

html

谷歌表示,许多攻击都是针对帮助Gemini“推理”或决定如何处理信息的算法,试图把它们引出来。

Hultquist表示,随着越来越多的公司设计用潜在敏感数据训练的自定义大语言模型,这些公司也容易遭受类似的攻击。

html

“假设你的大语言模型已经基于你交易方式背后100年的秘密思维进行了训练。理论上,你可以从中提炼出一些精髓,”他说。