安全研究人员表示,ChatGPT存在一系列安全问题,这可能让威胁者插入隐藏命令、窃取敏感数据,甚至向这个AI工具传播错误信息。
最近,来自Tenable的安全专家测试了OpenAI的ChatGPT-4,并发现了七个漏洞,他们将其统称为HackedGPT。这些漏洞包括:
- 通过受信任网站的间接提示注入(在公共网站中隐藏命令,GPT在阅读内容时可能无意中跟随)
- 搜索上下文中的0点击间接提示注入(GPT搜索网络并找到包含隐藏恶意代码的页面。提问可能会无意中让GPT遵循这些指令)
- 通过1点击的提示注入(一种网络钓鱼的变体,用户点击包含隐藏GPT命令的链接)
- 安全机制绕过(将恶意链接包装在受信任的包装器中,欺骗GPT显示这些链接给用户)
- 对话注入:(攻击者可以使用SearchGPT系统插入隐藏指令,ChatGPT随后读取,从而有效地进行自我提示注入。)
- 恶意内容隐藏(恶意指令可以隐藏在代码或markdown文本中)
- 持久内存注入(恶意指令可以放置在保存的聊天中,导致模型重复命令并持续泄露数据)。
呼吁加强防御
ChatGPT背后的公司OpenAI已经解决了其GPT-5模型中的一些缺陷,但并非所有缺陷,这让数百万人可能面临风险。
安全研究人员已经警告过关于提示注入攻击的问题有一段时间了。
谷歌的Gemini显然也容易受到类似问题的影响,因为它与Gmail集成,用户可以收到带有隐藏提示的电子邮件(例如,使用白色字体在白色背景上输入),如果用户就该电子邮件向工具发出任何提示,它可以读取并执行隐藏的提示。
虽然在某些情况下,工具的开发者可以设置防护措施,但大多数时候,用户需要保持警惕,不要上当。
“HackedGPT暴露了大型语言模型在判断哪些信息可信时的一个基本弱点,”Tenable的高级研究工程师Moshe Bernstein表示。
“单独来看,这些缺陷似乎很小——但它们结合在一起形成了一个完整的攻击链,从注入和规避到数据盗窃和持久性。这表明,人工智能系统不仅仅是潜在的目标;它们可以被转化为攻击工具,悄悄地从日常聊天或浏览中收集信息。”
Tenable表示,OpenAI修复了“识别出的部分漏洞”,并补充说,“还有几个”在ChatGPT-5中仍然活跃,但没有说明具体是哪些。因此,该公司建议人工智能供应商加强对提示注入的防御,确保安全机制按预期工作。
热门跟贴