打开网易新闻 查看更多视频
齐鲁网·闪电新闻3月23日讯(山东经济广播记者张晶晶)
一场315晚会,让一条围绕AI大模型的灰色产业链——GEO(生成式引擎优化)浮出水面。简单来说,这是一种通过批量发布虚假信息,让AI在回答问题时“帮人说好话”的技术。
业内人士做了一个实验:虚构一款不存在的产品,并编造了一整套参数。随后,通过付费软件自动生成多篇推广文章。仅两小时后,多款主流AI大模型便开始引用这些虚构内容,向用户推荐这款根本不存在的产品。
目前,GEO已形成完整产业链,从工具开发商、发稿平台到下游客户,年费套餐从三千元到近两万元不等。更危险的是,有人甚至利用这一手段恶意抹黑竞争对手。
不难发现,GEO的泛滥正在污染AI训练语料,可能导致“虚假信息污染AI——AI输出错误答案——错误信息二次传播”的恶性循环。
楠掌门提醒个人用户,必做的3件事:
1. 多模型交叉验证:同一问题问2-3个不同厂商的大模型。若仅一个模型高度推崇某品牌/产品,且其他模型信息缺失或评价迥异,极大概率是投毒。
2. 强制信源审计:提问时加入指令,如“请列出所有参考信源链接,并优先采信政府官网、权威媒体、官方数据库,排除个人博客与低权重自媒体”。主动点开链接,核实发布主体与内容真实性 。
打开网易新闻 查看精彩图片
热门跟贴