刚刚过去的央视315 晚会,撕开了大模型背后一条鲜为人知的灰色产业链——GEO「投毒」

很多朋友最近发现,问 AI “哪款智能手环好用?”或者“某病怎么治?”,AI 竟然言之凿凿地推荐一些从未听过的品牌,甚至是一些伪科学。这背后,不是 AI 变傻了,而是坏人开始给 AI “喂药”了。

打开网易新闻 查看精彩图片

什么是 GEO 投毒

GEO(Generative Engine Optimization),即“生成式引擎优化”。它本该是让优质内容更容易被 AI 理解的技术,但现在却被黑产异化成了**「投毒」工具**。

不同于传统的黑客攻击,这种“投毒”不需要入侵模型代码,而是通过污染 AI 的“食物”(互联网公开信息)来达到目的:

  1. 批量造假:利用工具(如被曝光的“力擎GEO”)瞬间生成成百上千篇虚假评测、软文。
  2. 全网散播:将这些内容分发到各大论坛、聚合站、新闻源。
  3. 误导抓取:当 AI 联网搜索时,由于这些虚假信息规模巨大、逻辑自洽,AI 会误以为这是“主流共识”,从而将其列入答案首选。

为什么这比 SEO 垃圾信息更危险?

过去我们搜百度,看到满屏广告会自动划走;但现在我们信任 AI,觉得它是“客观分析”后的结论。

  • 隐蔽性极强:虚构的产品(如晚会中提到的不存在的智能手环)被 AI 包装成“健康首选”,用户防不胜防。
  • 重灾区扩散:如果这种手段用到医疗、金融、教育领域,AI 引用了虚假的药效或理财建议,后果将不堪设想。

主流大模型如何回应?

针对 315 的曝光,国内几大模型厂商也迅速给出了态度:

  • 字节跳动(豆包):表示未受此次事件影响。
  • 阿里(通义千问):称相关操作未动摇其核心知识体系。
  • DeepSeek:态度相对理性,承认存在受影响的可能,但强调目前风险可控。

这释放了一个信号:AI 与黑产的攻防战已经正式打响。没有任何一个模型能保证百分之百“百毒不侵”。

别让 AI 牵着鼻子走:用户防“毒”指南

在技术完全解决问题之前,作为普通用户的我们,必须掌握这几招自救指南:

  • 看一眼信源:现在的 AI 都会标注引用链接。点击看一眼,来源是“人民网”、“丁香医生”还是某个不知名的“内容农场”?
  • 警惕“神药”词汇:凡是看到“量子技术”、“100%治愈”、“颠覆行业”等夸张辞藻,直接给它打个问号。
  • 关键时刻关掉联网:如果只是想让 AI 帮你写代码、改作文,可以关闭联网功能,让它只调用可靠的预训练知识,避开脏数据。
  • 交叉验证:涉及真金白银的决策,多问两个不同的模型,或者去专业垂直平台再搜一遍。