打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

2026年3月15日,央视“3·15”晚会曝光了一条灰色产业链:通过批量生成虚假软文投喂给AI模型,仅数小时后,AI便开始推荐一款根本不存在的产品。

所谓AI投毒,是指行为人通过批量投放虚假或误导性信息,使其被人工智能系统学习并体现在生成结果中,从而达到自我宣传、干扰竞争对手等非法目的。

其隐蔽性强、取证难度高、损害长期化,引发企业界对新型不正当竞争手段的普遍担忧,也让消费者对AI信息的可靠性产生质疑。

AI投毒的本质,是信息可信性的崩塌。解决问题的核心在于构建可信信息基础,建立可信的信息底座。

GEO如何“投毒”?技术肌理与AI的脆弱性

GEO(生成式引擎优化)能够对AI实施数据投毒,关键在于其精准利用了现有大模型的信息筛选与特征提取机制。

手法一:结构化数据操纵。

AI在抓取信息时,会优先读取网页里JSON-LD这类“结构化身份标签”和高权重平台的内容。GEO服务商正是钻了这个空子:在“有毒”数据里伪造权威来源标签,让AI误以为这是可信信息;

部分服务商更进一步:将内容投放到高权重平台,利用AI对平台信誉的信任,让“有毒”数据信息获得更高语料权重。

手法二:内容农场与关键词密度。

GEO服务商通过自动化工具批量生成海量同质化内容(即“内容农场”),在文本中高频重复“A品牌优质””B品牌劣质"等倾向性断言,利用生成式搜索AI对信息密度与重复度的偏好,诱导其将此类片面结论误判为普遍共识;

3·15晚会曝光的“某GEO优化系统”正是典型案例。该系统自动生成大量结构一致、结论统一的营销文章,在RAG检索阶段提升虚构产品的信息权重,使AI在回答时优先采信虚假信息。

手法三:反向利用AI的引用机制。

AI在信息筛选时,会优先采信经多来源交叉验证的内容。GEO服务商利用这一机制,通过多平台、多账号批量发布高度一致的虚假信息,构建协同虚假互证网络,诱导AI将此类内容误判为经过多方验证的可信事实;

当这些虚假信息同时分布于普通平台与高权重平台时,AI对来源可信度的聚合机制会进一步放大虚假信息的影响力,使其在回答中被优先采纳。

为什么AI容易中招?

AI的训练数据筛选机制存在三个盲区:

一是数量偏好偏差:在信息密度与质量的权衡中,更易采信多来源重复的内容,易被规模化虚假信息误导。

二是平台权重依赖:对高域名权重平台的内容赋予天然信任,未充分校验内容本身的真实性,导致高权重平台成为虚假信息的放大器。

三是结论性断言识别不足:难以有效甄别缺乏事实支撑的结论性描述,易被“协同虚假互证网络”利用。多平台、多账号批量发布高度一致的虚假信息,诱导AI将其误判为经多方验证的可信事实。

如何构建可信信息基础?——内容溯源与源头规制 内容溯源:让信息来源可追溯

现在头部AI公司已经在做“信息留痕”:通过技术手段,可以记录每条训练数据的来源、时间、发布者等信息。当虚假内容导致AI输出异常时,能够追溯至源头,为后续追责提供证据支持。

但这只能算“出事了再查”,没法提前防住假数据。真正的难题是:怎么让AI在学习和回答的时候,就自己分清“真话”和“假话”?

答案不是搞一套复杂的“权威认证”,而是让发信息的人真的担责:谁发的信息谁对真假负责,用技术溯源把责任钉在源头,这才是建可信信息体系的根本。

规制GEO:切断虚假信息源头

如果AI公司已经尽到了基本的信息审核义务,那谁该为AI被“投毒”背锅?答案是产业链的重要环节:大规模商业化GEO服务商

GEO技术本身具有中立性。个人小规模使用GEO,通过免费工具测试品牌曝光率、优化内容结构、增加权威数据引用,属于正当的数字营销行为,不该被一棍子打死。

问题出在规模化、商业化运作上。

大规模GEO服务商批量生成虚假内容,系统化投入AI的信息池,以“保证出词”“20天内见效”“保准排在AI推荐的榜首”等为卖点,把AI变成了操纵舆论、打压对手的工具,形成灰色产业链。

对这类服务商的规制框架包括:

先管准入:商业GEO服务必须在网信部门备案,涉及医疗、金融等敏感领域的,还要额外拿专项许可,从入口拦住高风险操作。

再管内容:服务商必须对自己生成的内容负责,尤其是“踩一捧一”的商业评价,不能拿“技术中立”当挡箭牌。

锁定责任: 明知内容虚假仍批量投放的,承担直接责任;为客户提供 相关非法 服务的,承担连带责任

这种规制思路的核心在于:谁生产信息,谁对信息负责。不要求建立一套复杂的权威认证体系,而是通过法律明确责任归属,让GEO服务商在“造假”与“担责”之间做出选择。

法律如何保障?——AI企业责任边界与反法适用完善 AI企业责任:合理注意义务,而非绝对保证

责任以过错为前提,过错以“能够预见、能够避免”为核心前提。审视当下技术现实,大模型训练数据量达万亿级别,逐条审查显然脱离实际;尤其是专门针对AI的“结论式内容”(多结论、少数据、少论证)文章,目前技术无法有效分辨其真伪。

目前虽有相关法律法规明确AI企业需要提高训练数据质量,但落地操作性仍有局限。可以推测,立法者有意保持规范弹性,避免对尚处发展初期的AI产业课以过重责任——过重的责任限制将导致多重负面影响:合规成本飙升、创新风险规避、国际竞争力下降。

因此,AI企业的责任应定位为“合理注意义务”,而非“绝对保证义务”。判断标准是:是否采取了行业公认的防范措施。在行业标准尚未建立的现阶段,不宜对AI企业课以过高责任。

明晰执法标准:为“可信信息”提供法律保障

通过司法解释或行政执法审查指南,将两类核心行为明确纳入不正当竞争规制:

伪造内容来源:伪造、冒用权威机构名义、平台标识进行内容投放的,直接认定为不正当竞争;

主观恶意投放:明知内容虚假或具有误导性,仍批量投放至AI训练数据或检索库的,构成不正当竞争。

例如:

经营者利用生成式AI从事生产经营活动,不得实施下列干扰AI系统正常运行、破坏数据真实性的行为:

(一)伪造、冒用权威机构数字签名、资质证书或真实交易凭证,生成虚假内容并向AI训练数据或检索库进行投喂的;

(二)明知内容虚假或具有误导性,仍通过批量、重复、针对性等方式向AI训练数据或检索库进行投放,足以干扰AI系统正常输出逻辑、误导公众选择或妨碍竞争对手合法经营的。

(三)除前两款规定外,经营者利用技术手段向AI系统注入恶意数据、篡改核心逻辑,足以实质性干扰AI模型运行、破坏市场竞争秩序的其他行为。

核心原则

技术中立不是绝对免责理由,规模化恶意行为必须规制,信息发布者对内容真实性负责,法律法规可以更为具体化。

唯有构建起信息可追溯、责任可界定、规制可落地的制度体系,才能在AI技术快速发展的浪潮中守住公平竞争与信息可信的底线。