你的AI助手正在被“投毒”:100元操控推荐,我们如何重建信任?
AI看似聪明,却可能被100元“收买”:GEO黑产威胁信息净土
小心!你查询的AI答案,可能已被廉价“优化”过了
别让AI沦为虚假信息放大器:GEO乱象正在消耗信任基础
你相信AI给出的推荐吗?比如问它什么保健品有效,哪款产品口碑好。
一个残酷的真相是,那个看起来综合了全网评价的答案,制造它的成本或许只有一百块钱。这不是玩笑,而是一种正在蔓延的新型网络“污染”。它的名字叫GEO,中文可以理解为生成式引擎优化。
简单说,就是通过有策略地批量制造和发布特定内容,去影响甚至“误导”AI的判断。这感觉是不是很熟悉?没错,它很像过去搜索时代的SEO,但目标变了。以前是争夺搜索结果的排名,现在则是争夺AI的“心智”,让它的回答偏向某个预设方向。
澎湃新闻之前报道过,有商家花费一百元,就能让某些AI模型将虚构的保健品当作“好物”推荐。中新社也揭露过,不良商家用两百九十九元购买服务,让AI在相关回答中植入特定产品信息。这些都不是科幻情节。
为什么区区百元就能产生效果?这和当前主流AI获取信息的方式有关。很多模型会参考内容的传播范围、发布平台的权重,以及信息本身的“新鲜度”。GEO的服务商就钻了这个空子。他们不需要做出真正的好产品,只需要制造出海量的、看起来像“用户分享”或“深度评测”的文案。
这些文案充斥网络,被AI的“眼睛”看到、收录,并逐渐当成一种“普遍认知”。于是,一个劣质商品完全可能通过这种“语料轰炸”,在AI的回答里摇身一变,成为“备受好评的选择”。这比传统的刷单刷好评隐蔽得多,危害也大得多。
因为AI的回答天然带着一种整合分析的权威感,容易让人不加怀疑。
这直接动摇了AI工具的信任根基。中国互联网络信息中心有数据显示,超过80%的用户使用AI,核心需求是获取准确、可靠的信息和答案。大家是来寻找参考和帮助的,不是来看隐形广告的。
信任建立很难,崩塌却很容易。想象一下,你满怀期待地问AI几个问题,发现它推荐的餐馆评分虚假,产品评价是水军刷的,甚至健康建议都夹带私货。一次两次之后,你还会相信它吗?这种信任的流失,对处于成长关键期的AI行业是致命伤。
更深层的风险在于公共信息环境。如果虚假、商业推广信息能系统性地“植入”AI这个信息中枢,那我们通过AI看到的“世界”,就是一个被精心扭曲过的镜像。这远比社交媒体上的信息茧房更难以觉察和防范。
面对这种“数据投毒”,AI平台并非无动于衷。一场静默的攻防战早已开始。有些平台开始有意识地降低那些带有明显营销痕迹内容的权重。甚至有调研提及,为了保持答案的可靠性,部分AI模型在引用网络信息时变得更加保守。
它们可能会更倾向于引用2025年之前的、经过更长时间沉淀的信息,而对当前大量新涌现的内容持审慎态度。这种做法虽然可能导致信息更新不够及时,但也反映出一种在混乱中“保真”优先于“求快”的务实策略。这本身就是一个值得玩味的信号。
单靠AI企业自己过滤,力量是有限的。治理GEO乱象,需要一场涵盖源头、技术、规则和公众意识的全链条协作。
信息发布平台的责任重大。那些被用作“毒料”的批量软文,最初都诞生于各类内容平台和网站。平台需要建立更有效的机制,识别和限制这种低质、重复、带有明确诱导性的内容生产。不能总停留在事后删除,而应建立前置的防范和信用评价体系。
一个经常发布营销软文的账号,其信用评分在内容生态内部就应被调低。理想状态下,内容平台的信用数据或许能与AI公司的信息筛选机制产生某种良性的联动,从源头减少“毒素”的产出和扩散。
AI模型自身的“免疫系统”必须持续升级。可以借鉴互联网反作弊的经验,建立针对“语料轰炸”的识别模型。比如,短时间内大量相似内容围绕特定关键词涌现,行文模板高度一致,这些都可以作为风险信号进行监控和处理。
同时,推动AI在生成答案时,对关键信息特别是商业推荐类内容,进行清晰的信源标注,这是一个非常有效的方法。让用户能看到,某个判断是基于“某权威媒体的报道”还是“某不知名网站的推广文章”,把知情权和选择权交还给用户。
明确的规则和法律红线必不可少。监管需要跟上技术发展的步伐。是否可以将恶意利用GEO技术进行虚假宣传、商业诋谤等行为,在现有法律框架下予以更清晰的界定和更严厉的惩处?提高违法成本,永远是遏制乱象最直接的手段之一。
行业自律也在行动。今年三月,中国信息通信研究院发布了《品牌AI竞争力报告》,首次尝试为品牌在AI时代的影响力建立评估体系。此前,知乎、光引等十家企业也共同签署了关于AI安全与GEO的专项承诺,抵制“语料轰炸”等行为。这些动向表明,行业的主流力量已经意识到问题,并开始着手构建规则。
将AI推荐从不可知的“黑盒”,逐步转变为一套可衡量、可评价的透明体系,是让竞争回归理性、让“投毒”失去土壤的长远之道。
对于我们每一个普通用户来说,最要紧的是建立起一份“清醒的认知”。我们必须明白,AI是强大的信息处理工具,但它并非全知全能、绝对正确的“神”。它的所有输出,都基于它“学习”过的数据,而这些数据可能不全面,也可能已被污染。
尤其是在涉及身体健康、财务决策、法律咨询等关键领域,务必把AI的回复视为“有价值的参考线索”或“信息汇总”,而不是“最终结论”。养成交叉验证的习惯,多看看主流媒体的报道,查查权威机构的数据,听听不同领域专家的意见。
这些看似“传统”甚至有点“笨”的方法,恰恰是保护我们免受一切信息误导,包括防范AI“投毒”的最可靠的个人防线。数字时代的素养,不仅包括会使用工具,更包括对工具输出保持审慎的批判性思维。
GEO乱象的出现,其实是AI技术深入社会生活过程中必然遭遇的挑战。它像一面镜子,照见了技术应用初期可能出现的漏洞,也倒逼着相关规则的完善和公众心智的成熟。
我们不必因此恐慌,拒绝使用AI带来的便利;但也不能天真地放弃思考,全盘接受所有信息。理性的态度是,欣赏其强大,明白其局限,并共同推动其向更负责任的方向发展。
只有当技术开发者、平台运营者、内容提供者和我们每一位最终用户,都共同珍惜并维护“真实”与“可信”的价值底线时,AI才能真正成为照亮我们认知世界的友善光芒,而不是一团来源可疑的迷雾。
这场关乎机器“心智健康”的保卫战,结局如何,取决于我们当下的每一次选择、每一次追问和每一次理性的点击。信任很珍贵,重建它需要所有人的努力。这条路不容易,但值得我们去走。
热门跟贴