安全研究员这周干了三件事:让大模型"喝醉"去找Linux内核漏洞、往AI的记忆库里下毒、还有黑掉一个老牌下载站塞木马。三件事指向同一个趋势——攻击者正在把AI变成武器,而防御者还在熟悉规则。

第一件事来自r/netsec社区的一篇技术报告。研究者开发了一种新方法,通过"Getting LLMs Drunk"(让大模型进入非标准状态)来挖掘远程Linux内核越界写入漏洞。这种方法跳过了传统的模糊测试和静态分析,直接让AI去摸索那些 obscure 的代码路径。报告提到了两个新编号:CVE-2026-31432和CVE-2026-31433。核心逻辑很简单:如果AI能帮你找bug,它也能按同样逻辑找exploit。这意味着内核安全的研究范式正在变化,防御方也得用AI对抗AI。

打开网易新闻 查看精彩图片

第二件事更隐蔽。研究者针对ChromaDB做了一个完整的PoC,演示"记忆投毒"攻击。攻击场景是这样的:AI代理用向量数据库存长期记忆,如果攻击者有写权限,就能直接往记忆里注入恶意数据。后果包括行为操控、偏见植入、甚至数据外泄。这个PoC是用Claude Code搭的,针对性很强——它不打模型本身,打的是模型依赖的外部记忆存储。对做AI Agent的开发者来说,向量库的安全等级得提到和模型同等级别了。

打开网易新闻 查看精彩图片

第三件事是供应链攻击的典型案例。JDownloader官网被黑,安装包被替换成了Python RAT木马。JDownloader是个老牌下载工具,用户基数大、信任度高,这种替换很难被普通用户察觉。攻击者赌的就是"没人会校验官网下载的安装包"。

打开网易新闻 查看精彩图片

三件事连起来看:AI既是被攻击目标(内存投毒),也是攻击工具(找内核漏洞),还是攻击载体(下载站挂马)。安全攻防的边界正在模糊,而大多数团队还没准备好同时应对这三个维度。