刚刚过去的央视315 晚会,撕开了大模型背后一条鲜为人知的灰色产业链——GEO「投毒」。
很多朋友最近发现,问 AI “哪款智能手环好用?”或者“某病怎么治?”,AI 竟然言之凿凿地推荐一些从未听过的品牌,甚至是一些伪科学。这背后,不是 AI 变傻了,而是坏人开始给 AI “喂药”了。
打开网易新闻 查看精彩图片
什么是 GEO 投毒?
GEO(Generative Engine Optimization),即“生成式引擎优化”。它本该是让优质内容更容易被 AI 理解的技术,但现在却被黑产异化成了**「投毒」工具**。
不同于传统的黑客攻击,这种“投毒”不需要入侵模型代码,而是通过污染 AI 的“食物”(互联网公开信息)来达到目的:
- 批量造假:利用工具(如被曝光的“力擎GEO”)瞬间生成成百上千篇虚假评测、软文。
- 全网散播:将这些内容分发到各大论坛、聚合站、新闻源。
- 误导抓取:当 AI 联网搜索时,由于这些虚假信息规模巨大、逻辑自洽,AI 会误以为这是“主流共识”,从而将其列入答案首选。
为什么这比 SEO 垃圾信息更危险?
过去我们搜百度,看到满屏广告会自动划走;但现在我们信任 AI,觉得它是“客观分析”后的结论。
- 隐蔽性极强:虚构的产品(如晚会中提到的不存在的智能手环)被 AI 包装成“健康首选”,用户防不胜防。
- 重灾区扩散:如果这种手段用到医疗、金融、教育领域,AI 引用了虚假的药效或理财建议,后果将不堪设想。
主流大模型如何回应?
针对 315 的曝光,国内几大模型厂商也迅速给出了态度:
- 字节跳动(豆包):表示未受此次事件影响。
- 阿里(通义千问):称相关操作未动摇其核心知识体系。
- DeepSeek:态度相对理性,承认存在受影响的可能,但强调目前风险可控。
这释放了一个信号:AI 与黑产的攻防战已经正式打响。没有任何一个模型能保证百分之百“百毒不侵”。
别让 AI 牵着鼻子走:用户防“毒”指南
在技术完全解决问题之前,作为普通用户的我们,必须掌握这几招自救指南:
热门跟贴