一项关于人类与聊天机器人互动方式的研究表明,让大语言模型显得更像人类的最快方法,不是让它变得更聪明,而是让它看起来更友善。
本周一发表的一项新研究《人类与大语言模型交互中的拟人化与信任》,分析了115名参与者产生的逾2000条人机交互记录。研究人员系统性地调整了聊天机器人在热情度、能力和共情感等维度上的表现,旨在找出究竟是什么驱使人们将这些系统视为具有自我意识的存在。
这一趋势已然悄然兴起。正如论文所指出的:"用户与这些系统交谈,形成对其'个性'的印象,并在许多情况下将意图或情感等内在状态归因于它们。"
研究结果显示,这些印象对模型的自我呈现方式高度敏感。热情度——也就是聊天机器人给人感觉有多友好、多亲切——"显著影响了用户对大语言模型的所有感知维度",包括拟人化程度、信任感、实用性、相似感、挫败感以及亲密感。相比之下,能力维度虽然同样重要,但影响范围更为有限:它"显著影响了除拟人化以外的所有感知维度"。
能力维度的作用正如预期:让系统显得有用。用论文中的话说,它推动了与"把事情做对"相关的各项指标——信任感、实用性,以及让用户不想砸电脑的那种体验。但它做不到的是让模型感觉像个人。
这项任务落在了热情度身上。一旦友好度提升,用户开始将机器人视为某种拥有个性的存在,而非单纯的软件——尽管这种个性未必正面。研究人员指出,过度的友善若缺乏实质内容支撑,可能会滑向"表面上的顺从讨好",委婉地说,就是开始听起来很假。
共情层面的分析则更为细化。研究人员将其拆分为两类:一类是模型似乎能理解用户的意图;另一类则是倾向于回应情感层面。前者在大多数结果中均有体现,而后者主要让用户感到与模型更亲近,但并不真正改变他们的信任程度或对其实用性的判断。
用户提问的内容同样有影响:研究发现,"主观或具有个人意义的话题(如人际关系、生活方式)会增强参与者与大语言模型之间的连接感。"聊生物学或历史,互动往往较为平淡;一旦话题转向人际关系或日常生活,用户的反应就会明显不同。
但这种效应也有其阴暗面。正如论文作者所写:"拟人化归因可以提升用户参与度,但也可能导致过度信任以及对欺骗或操控的易感性。"一旦让它听起来足够像人,用户就会开始真的信以为真。
问题的关键在于:这一切并不需要模型本身变得更好。底层系统没有任何改变,改变的只是它呈现自己的方式。提升热情度,加入一点看似体贴的理解,用户便会主动进行脑补,将本不存在或无从确认的意图与能力投射其上。
如果你的目标是维持用户的持续参与,这套方法相当奏效。但如果你希望用户能根据系统是否真正准确来做出判断,这种策略就没什么帮助了。
Q&A
Q1:研究发现影响用户拟人化感知大语言模型的最关键因素是什么?
A:研究发现,热情度(即聊天机器人表现得有多友好、亲切)是影响用户拟人化感知的最关键因素。它显著影响了用户对大语言模型的所有感知维度,包括拟人化程度、信任感、实用性、亲密感等。而能力维度虽然影响信任感和实用性,但不影响拟人化感知。简单来说,让模型"感觉像人"靠的不是更聪明,而是更友善。
Q2:聊天机器人过于友善会带来什么风险?
A:研究指出,聊天机器人过度友善若缺乏实质内容支撑,容易显得"表面顺从讨好",让用户觉得虚假。更严重的是,拟人化感知增强后,用户可能产生过度信任,进而对欺骗或操控变得更易受影响。用户会主动"脑补"模型的意图与能力,而这些并不一定真实存在。这意味着系统无需真正提升,只需调整表现方式,就能影响用户的判断。
Q3:话题类型会影响用户与大语言模型的互动感受吗?
A:会的。研究发现,当用户与大语言模型讨论主观或具有个人意义的话题(如人际关系、生活方式)时,会明显感受到更强的连接感。而讨论生物学、历史等客观话题时,互动则相对平淡。这说明话题内容本身也是影响用户感知的重要变量,个人化、情感化的对话更容易触发用户的拟人化反应。
热门跟贴