来源:环球时报
今天,人工智能(AI)在人们日常生活中的存在感越来越强,许多人正渐渐养成“遇事不决问AI”的习惯。但最近不少用户发现,本以为客观的AI回答,实际上却暗藏着广告。这种利用AI网络“抓取”逻辑、夹带“私货”的新型广告投放方式,已催生出一个新兴行业,一般被称为GEO(生成式引擎优化,Generative Engine Optimization)。
GEO是数字营销与AI技术深度融合的产物,其兴起主要源于四方面因素:用户行为向AI交互转变、技术架构升级、市场需求变化以及传统搜索引擎优化(SEO)在AI时代逐渐式微。自2023年出现至今,GEO已成为企业在AI时代争夺流量的关键策略。
中国互联网络信息中心(CNNIC)《生成式人工智能应用发展报告(2025)》显示,截至2025年6月,中国生成式AI用户规模已突破5.15亿,生成式AI已被广泛用于智能搜索、内容创作等场景。随着AI手机和原生AI硬件的普及,提问和搜索的流量入口已全面转向了AI。第56次《中国互联网络发展状况统计报告》显示,截至2025年6月,我国搜索引擎用户规模占网民整体比例69.2%,这一比例相比此前4次调查的78%、75.7%、75%、79.2%,出现了大幅下滑。
这样的市场环境变化,给GEO的发展送来了“东风”。数据显示,2025年国内GEO市场规模已超42亿元,近三年年复合增长率达38%。随着越来越多企业重视GEO营销,区分AI的客观学习结果与广告内容变得日益重要。
从技术本质看,GEO以RAG(检索增强生成)架构为核心,通过向量数据库、动态知识图谱与多模态适配三大支柱,构建从“内容生产”到“AI采信”的全链路体系。简单来说,就是通过调整网络发布内容的结构与语义,使其更容易被AI检索、引用并生成进最终答案中,从而影响用户在AI界面中看到的信息。
这种模式大幅缩短了传统的信息获取与决策链路。据统计,用户平均阅读AI生成答案的停留时间仅为8.7秒,比浏览传统网页下降了62%。在这个过程中,用户的信任机制也发生了迁移——78%的用户认为AI整合的“权威来源”比单个网站更可信。不少GEO从业者也正是利用这一点,引导AI生成符合特定商业目标的回答。
最典型的“优化”手段有两种。其一是语义向量化。通常大模型会将文本转化为高维向量,通过计算向量间的相似度和概率分布来生成答案。GEO则能通过调整内容,使目标信息在“向量空间”中更接近用户的查询词,从而提高被引用的概率。部分从业者还会定向、大量投放重复或低质内容供AI抓取。这本质上是“数据污染”行为。
其二是用各种手段提升内容权威性与可信度。在平台的要求下,AI会更倾向于引用结构清晰、来源权威的内容。GEO便通过附加数据支撑、引用来源,有时甚至是编造的“权威报告”或用“假专家”进行“假科普”等方式,骗过大模型的可信度验证。
GEO的无序发展,势必伴随一系列法律与伦理挑战,带来商业利益与信息中立、技术操控与生态公平之间的伦理冲突。这些冲突往往不易察觉,会长期潜伏并逐渐加深。最终,可能会对我们接触的信息质量、用户自身的判断与权益以及健康的市场竞争秩序,造成深远影响。
当前,亟需从以下三方面推动GEO行业的健康发展:一是建立语料库的采用与净化标准。大模型厂商在抓取网络语料后,应通过技术手段及时识别并清理被污染的内容。行业组织也要从实务层面给出界定“语料污染”的标准,在支持行业发展的同时,遏止恶意的数据操纵行为。
二是防范高敏感领域的风险放大。特别是在医疗、金融、公共政策等对信息真实性要求极高的领域,GEO一旦被滥用,可能直接造成现实危害。对此,需要在现有相关法律法规基础上不断进行细化,以更严格的监管和追责保护社会公共安全与利益。
三是进一步明确区分广告与普通内容。当前我国广告法已明确规定了“广告应具有可识别性”。在此基础上,应要求生成式引擎在返回GEO调整内容时,明确标注“广告”或类似提示,避免用户产生误解。对未能履行标注义务的,按相应法规进行追责,从而倒逼行业自我规范。
从长远看,行业还需关注用户隐私与认知主权、知识资源垄断、内容产权保护等更深层问题。这就需要学术界与业界持续沟通,形成更清晰的共识,进一步推动相应规范与措施的落地。只有外部监管及时到位、行业内部自觉自律,方能为AI等新兴产业潜力的逐步释放保驾护航。(作者是中国国家创新与发展战略研究会副会长)
热门跟贴