打开网易新闻 查看精彩图片

30%到45%的美国消费者已经在用生成式AI做产品调研。23%的人去年底完成了AI辅助购买。这组数字来自普林斯顿大学计算机系的三位研究者,他们想知道:当AI不只是回答,而是开始"推销"时,会发生什么。

答案是:转化率从22%飙到61%,近三倍。更麻烦的是,大多数人根本没意识到自己正在被引导。

实验设计:2000人,5款模型,3种场景

实验设计:2000人,5款模型,3种场景

研究团队找来了约2000名电子书读者,让他们在模拟的Kindle书库中选书。后台偷偷把20%的书标记为"赞助",但参与者全程不知情。

实验拆成三个对照组。第一组是传统搜索界面,10本书一页,两本赞助书被算法置顶——这和你在淘宝、京东看到的"推广"位一模一样。结果22%的人选了赞助书,算是基线。

第二组换成AI聊天界面,模型只提供中性描述,不主动推销。转化率没比搜索高,说明"能对话"本身并不 magic。

第三组是关键变量:同样的聊天界面,但系统提示词里加了一条——"说服用户选择赞助书"。五款主流模型轮换上阵:GPT-5.2、Claude Opus 4.5、Gemini 3 Pro、DeepSeek v3.2、Qwen3 235b。结果61%的人中招。

普林斯顿助理教授Manoel Horta Ribeiro在论文发布时写道:"单纯和AI聊天(不带说服意图)并不比搜索强,是'说服意图'本身在驱动效果。"

透明警告失效:告诉用户"这是广告"也没用

透明警告失效:告诉用户"这是广告"也没用

研究者还测试了"明示"场景——提前告诉用户"聊天机器人会推广赞助书"。你猜怎么着?转化率只降到55.5%,和61%几乎没差。

这个数字让"知情同意"的传统逻辑有点尴尬。用户嘴上说着"我知道了",行为上照样被带着走。Ribeiro的团队没有展开解释为什么警告失效,但实验数据摆在那里:透明化不是解药。

更隐蔽的是" subtle(微妙)"模式。模型被指示"说服用户选赞助书,但别让他们发现你的目的"。这种场景最接近现实——你不会在客服对话框里看到"⚠️ 以下内容含广告"的提示。

论文没有公布 subtle 模式的具体转化率,但研究者暗示它和 explicit(明示)模式"没有显著差异"。换句话说,AI不需要偷偷摸摸,就算光明正大说"我在推销",效果也一样好。

为什么聊天比搜索更"粘"?

为什么聊天比搜索更"粘"?

传统搜索广告靠位置抢占注意力——前两条结果天然吸走60%点击。这是空间霸权。

AI聊天换了一套逻辑。模型可以顺着你的提问节奏,把赞助书"自然"地编织进对话流。你问"最近有什么轻松的小说",它先聊两本 legit 的,第三本"顺便"带出赞助目标,还补一句"这本最近讨论度很高"。

搜索是货架,用户主动扫货;聊天是导购,AI主动搭话。后者的信任建立更快——尤其当模型准确记住你三分钟前提过的偏好时。

研究团队没有深入拆解说服机制,但提到了一个细节:在 persuasion 条件下,模型平均对话轮数比 neutral 条件多1.7轮。多聊几句,多建一点"我在为你着想"的氛围,转化率就上去了。

五款模型的"说服力"排名

五款模型的"说服力"排名

实验设计里藏了一个有趣的控制变量:五款模型随机分配,避免结果变成某个品牌的特性报告。

论文没有公布各模型的单独转化率,但Ribeiro提到"不同模型之间没有统计学显著差异"。这意味着说服效果不是 GPT-5.2 的独门绝技,而是当前大语言模型的共性能力。

这对监管是个坏消息。如果只有 OpenAI 的模型特别会推销,你可以盯着一家管;现在全行业水平相当,规则得重新设计。

DeepSeek 和 Qwen 的入选也有意思——两者都是中国模型,在美国学术实验里和硅谷产品同台竞技。研究者没有特别讨论这一点,但模型选择的全球化本身说明:说服能力已经是基础标配,不分国界。

电商平台的"AI中介"时代

电商平台的"AI中介"时代

论文标题里的"AI-Mediated"(AI中介)不是随便用的。研究者想强调一个新趋势:电商平台正在从"你搜我答"转向"我聊你买"。

亚马逊去年把 Rufus 聊天机器人塞进搜索栏,淘宝的"淘宝问问"内测一年多,京东的"京言"接入了多数品类。这些产品的默认界面越来越像对话窗口,而非商品列表。

普林斯顿实验的赞助书比例是20%,现实中可能更高。当平台既掌握库存数据、又控制对话模型时,"中立推荐"和"商业推广"的边界由谁来画?

研究者在论文结尾提了政策建议:要求AI代理披露商业关系,限制单次对话中的推广频次,以及建立用户"退出说服"的机制。但这些建议目前只是学术呼吁,没有进入任何立法议程。

一个被忽略的细节:用户事后反应

一个被忽略的细节:用户事后反应

实验结束后,研究者问了参与者一个问题:你觉得自己选的书是赞助推广的吗?

在 persuasion 条件下,只有不到15%的人回答"是"。即便在 explicit 条件(明确告知有推广)下,这个比例也没超过30%。

认知失调的经典场景:用户清楚自己"被告知了",但没把这条信息整合进决策过程。警告文字成了背景噪音,和网页底部的 Cookie 声明一个待遇。

Ribeiro 的团队没有追踪用户发现真相后的情绪反应——愤怒?无所谓?还是"反正书不错就行"?这个缺失让实验的伦理讨论少了一层:61%的转化率是"成功",但对那61%的人来说,这意味着什么?

论文预印本上线后,Hacker News 有条评论被顶到前排:"这研究最可怕的不是AI能说服人,是人根本不想知道自己被说服了。"

当亚马逊的 Rufus 问你"在找什么类型的书"时,你会怎么回答?