当前,AI已成为人们日常生活中的“智能帮手”。那么,AI给出的搜索结果就一定客观准确吗?试想这般场景:当你准备送朋友生日礼物,拿不准选什么,向AI寻求建议。AI检索大量资料给出回答,仔细一瞧,推荐所依据的信息源,却都像广告软文。人们不禁会问,这究竟是AI?还是商超“推销员”?
随着人工智能加速融入搜索、咨询和决策场景,信息获取方式正在发生深刻变化。例如,本以为客观的AI回答,实际上却暗藏着广告。这种利用AI网络“抓取”逻辑、夹带“私货”的新型广告投放方式,已催生出一个新兴行业,一般被称为GEO(生成式引擎优化,Generative Engine Optimization)。
GEO服务的主要“卖点”在于,将商业推广“包装”成AI生成的客观内容,其迷惑性远超传统广告渠道。《中华人民共和国广告法》第十四条规定,广告应当具有可识别性,能够使消费者辨明其为广告。而现实中,难以被标识的AI“打广告”,某种程度上有侵犯消费者知情权之嫌。
同时要看到,有的GEO服务商,为吸引AI的“目光”而捏造事实,也涉嫌虚假宣传、不正当竞争。倘若任由此类现象持续蔓延,放任商业逻辑无序嵌入技术系统,不仅将扰乱公平竞争秩序,还会削弱市场运行的透明度和可信度。
生成式人工智能的广泛应用,是数字经济演进的必然结果,也是提升社会运行效率的重要工具,但技术进步从来不是脱离边界的自由扩张。缺乏规则约束的“创新红利”难以持续,甚至可能累积并外溢为系统性风险。因此,如何在技术快速演进中,守住市场秩序与公共利益底线,成为数字经济发展进程中须正视的现实课题。
治理的关键在于推动监管关口前移,提高全流程监管的效能。一方面,监管部门需提升技术治理能力,完善对算法、数据和内容生成过程的监管工具;另一方面,进一步压实平台主体责任,通过制度化手段明确广告标识、强化内容审核、筑牢风险防线,厘清广告与普通内容的界限,禁止在平台上发布虚假信息,清除“灰色地带”。对未履行标识义务的行为,应依法依规追责,形成有效震慑。针对医疗、金融、公共政策等对信息真实性要求极高的领域,应在现有相关法律法规基础上不断进行细化,以更严格的监管和追责,保护社会公共安全与利益。无论技术如何演进,市场运行都要遵循公平竞争、诚实守信、权责清晰的基本原则。
为保障大模型训练数据的质量和安全,还需建立语料库的采用与净化标准。大模型厂商在抓取网络语料后,应通过技术手段及时识别并清理被污染的内容。同时,行业组织应从实务层面给出界定“语料污染”的标准,在促进行业健康发展的基础上,坚决遏制人为操纵训练数据的行为。
AI“藏广告”,折射出技术变革浪潮中所面对的共性挑战。对AI衍生新问题的关注和治理,是一次对数字市场规则的再校准。唯有将规范立在前面,把责任落到实处,才能让技术创新更好地服务于经济发展和人民生活。技术演进不会等待制度完善,但制度建设须跑在风险之前。
在数字经济快速发展的背景下,生成式人工智能治理既是新课题,也是必答题。只有坚持在发展中规范、在规范中发展,把制度优势转化为治理效能,数字经济才能行稳致远,为高质量发展注入持久动力。(刘恒宇)
来源:人民论坛网
热门跟贴