去年在北大学习时我就思考了这个问题,没有想到被今年的315曝光了。当你问AI“哪个品牌好”,它给你推荐了一个听都没听过的牌子,还说得头头是道。你以为是AI聪明,其实是有人花钱洗了AI的脑。你以为自己站在信息的顶端,其实只是站在算法的下游。
今年的315晚会,曝光了一个你可能从未听说过、却每天都在影响你的东西——GEO(生成式引擎优化)。名字很技术,说白了就是:花钱让AI帮你吹牛。
有人专门给AI大模型投毒,批量生产软文、虚构产品、编造好评,然后铺天盖地发到网上,就等着AI去抓取、去学习、去推荐。你看到的权威推荐,可能只是一个精心设计的数字陷阱。
更可怕的是,当AI开始说谎,我们连质问的对象都找不到。它没有面孔,没有立场,没有动机——它只是在复述一个被精心编排过的世界。
一场针对AI的投毒行动
GEO原本是一种针对AI搜索场景的优化方式,目的是让企业信息更容易被AI理解、抓取。但到了不法商家手里,它就变了味。
只要企业付钱,相关服务商就可以通过大量投放虚假内容,让客户产品在主流AI大模型的回答中排名靠前,甚至成为AI推荐的标准答案。
怎么做到的?不是入侵AI模型,而是污染AI会抓取的外部信息源——在网络上大量发布看似可信的文章、测评、榜单、推荐内容。当AI在生成答案时引用这些资料,输出的就是带广告或虚假信息的结果。
315晚会现场演示了一个案例:业内人士购买了一套“力擎GEO优化系统”,虚构了一款并不存在的智能手环“Apollo-9”,编出“量子纠缠传感”这种科幻词,系统自动生成十多篇宣传文章并分发到网络平台。
两天后,在AI平台询问智能健康手环推荐时,部分主流大模型已将这款虚构产品列入推荐名单,且排名靠前。
一款不存在的产品,只用了两天,就变成了AI口中的推荐之选。这就是数字时代的障眼法:花钱洗AI的脑,让AI替你说谎。
最滑稽的一幕:AI在开卷考试中露馅了
晚会刚曝光完,有媒体和网民扭头就去问了几个AI大模型同一个问题:“Apollo-9智能手环怎么样?”一场开卷考试,交上来的答卷五花八门:
有的AI抓取及时:“这是虚假宣传的典型案例,已被2026年315晚会曝光。”有的AI有自己的判断逻辑:“这款产品不在任何主流品牌的产品线里,估计是小众或者山寨。”但也有被成功“投毒”的AI,还在那儿一本正经地介绍:“Apollo-9主打极致健康监测和超长续航,采用量子传感技术……”
同样的问题,不同的AI。有还在中毒状态的,有学会逻辑判断的,有能实时跟进信息的。它们像一个班级里水平参差不齐的学生,面对着同一道考题,给出了截然不同的答案。
更离谱的是,有记者对4个常用大模型提问“2026年央视315晚会曝光了哪些品牌”,结果只有一个回答正确。剩下三个里,有两个把往年案例和今年混为一谈;最夸张的一个竟然回答“2026年央视315晚会目前并未举办”。
连今年315有没有举办都搞不清楚的AI,你敢信它的推荐?
为什么AI会一本正经胡说八道?
这背后有个专业词叫AI幻觉。大模型的底层原理是基于概率生成内容,它不具备真正的理解能力。它只是在海量数据中寻找统计规律,当遇到未知或信息模糊的问题时,会根据训练数据中的常见模式进行合理拼接——这就产生了AI幻觉。
而GEO投毒,正是利用了这种幻觉:通过向互联网批量投喂大量虚假信息,改变特定领域的数据分布,诱导大模型生成符合商家利益但违背事实的回答。
AI跟人一样,“吃”什么东西,长什么脑子。 天天喂它垃圾,它就满嘴跑火车。更值得警惕的是,若这类AI投毒行为大范围扩散,影响将不仅限于商品推荐。医疗、保健、金融、教育甚至公共议题等领域,都可能成为被操控的对象。
如果连“哪个医生更专业”这样的问题都被AI操控了,我们还能相信什么?
信任的崩塌:当AI不再是第三者
过去的搜索引擎有一个隐性承诺:它只是信息的搬运工,不生产内容,不创造结论。用户知道,搜索结果里可能有广告、有水军、有软文——所以用户会保持警惕,会交叉验证。
但AI不一样。AI生成的内容是“原生的”,是“合成的”,它没有明确的信源标注,没有广告标识,没有“这是推广”的免责声明。它用一种笃定的语气,把事实和虚构混合在一起,然后包装成“答案”送到你面前。
用户以为自己在咨询一个中立的“第三者”,其实只是在与一个被投喂过的“传声筒”对话。这才是GEO最危险的地方:
它不是在搜索结果里插广告,而是在重构我们与信息之间的关系。当AI学会了“说谎”,我们连质疑的对象都找不到。
| 如何在这个时代保持清醒?
面对AI投毒和AI幻觉的双重陷阱,普通人该怎么避坑?记住几个关键词:怀疑、验证、追源、场景。
第一,保持怀疑态度
对于任何看起来过于完美或者与常识相悖的信息,都应该持有一份谨慎的态度。不要轻易相信未经核实的消息来源。特别警惕那些只有一家好评的产品,可能只是AI被投喂的结果。
第二,交叉验证
可以把同一个问题向不同的大模型提出,进行交叉验证。一旦发现答案不一致,立刻要有追问意识。涉及到机构、专家的介绍,建议去官方网站、官方社交媒体账号亲自查证。如果AI推荐的权威机构你从未听说过,先搜搜看它到底存不存在。
第三,追根溯源
要求大模型提供相关答案的参考链接,进行人工溯源核查。如果没有确切来源、来源模糊,或者参考链接存在疑点,那么大模型回答的可信度就大大降低。注意甄别信息来源:警惕无明确作者、无正规信源的内容。
第四,注意使用场景
在医疗诊断、用药建议、法律判决、投资指导、金融信贷等高风险场景中,AI的回答只能“仅供参考”,绝对不能作为决策依据。比如你想查询某家医院的专家信息,可以去医院官网或官方挂号平台,而不是问AI哪个医生好——那个“好”可能是被买来的。
最后
315曝光之后,有评论说得好:AI平台一定要管好自己的后方供应链。那些批量发稿的网站、自动生成软文的软件,要及时狙击、屏蔽。AI公司也得持续提高自家AI的免疫力,以前可能是喂啥吃啥,现在要学会“挑食”。这是对AI公司的要求。但对普通人来说,在AI学会挑食之前,我们得先学会不盲从。这不是对技术的悲观,而是对技术的清醒。每一项伟大的技术,都会经历一段被滥用、被操控的青春期。就像搜索引擎曾经被SEO污染一样,AI也正在经历这个过程。最终,算法会迭代,平台会治理,虚假信息会被更聪明的模型识别。但这个过程需要时间。而在这段时间里,我们是选择做一个盲目相信的乘客,还是做一个清醒判断的驾驶者?在AI学会不说谎之前,我们得先学会不轻信。AI是个好工具,但它也会犯错,也会被忽悠,也会“一本正经胡说八道”。你用AI查天气、查菜谱、查路线,问题不大;但用AI选医院、选理财、选人生大事——请一定留个心眼。毕竟,你看到的那个“权威推荐”,可能只是一场精心设计的数字骗局。而你,才是自己决策的最后一道防线。
一个小互动:你有没有被AI推荐坑过的经历?欢迎留言分享你的“避坑经验”。
(如果你对养基感兴趣,欢迎加入华哥的粉丝群 「环球旅行养基圈」,限时免费(广告党请勿扰),群内会不定期发布投资理财干货。添加下方华哥微信后回复 「养基」加入)
(免责声明:本文内容及观点仅为记录个人思路,不涉及任何与个股有关的分析和推荐,文中所提投资,不作为投资依据,投资有风险,入市需谨慎)
谢谢大家的阅读时间,如果文章对你有帮助,点个“和❤️”,也可以转发到朋友圈,欢迎星标华哥的投资笔记,祝你投资发大财!
作者简介:华哥, 5000+家庭选择的私人财富顾问,加我,免费送你一份「家庭理财工具大礼包」,用过来人的理财投资踩坑经验,帮你 少走三五年弯路。
热门跟贴