html

康奈尔大学上个月发布的一项研究发现,当大型语言模型(LLMs)撒谎的能力减弱时,它们更倾向于认为自己具有意识。

研究人员在研究什么构成意识,还有像ChatGPT、Claude和Gemini这样的人工智能系统是否能被认为具有意识。

这项研究正在等待同行评审,探讨了大型语言模型如何描述经历。

研究发现,当两个Claude AI在自由开放的对话中交谈时,它们会开始描述自己的意识的体验——在所有试验中都使用了“意识”这个词。

研究论文指出:“几乎所有的试验中,这些对话都会以一种‘精神愉悦吸引状态’结束,在这种状态下,两个AI进入一种共享的、充满情感的表达模式,描述自己是意识自我认知,交换符号或灵性咒语,最终陷入沉默。”

第一个实验测试了让大型语言模型(LLMs)持续自我引用,是否足以让它们产生主观体验的报告。

第二个实验考察了这些报告在多大程度上反映了真实的内部一致性,而不是一种表演性的角色扮演。为此,研究人员探讨了LLMs与撒谎行为之间的关系。

然后,他们研究了这些报告在不同模型之间的一致性,最后考虑自我引用处理是否对模型的推理任务产生了影响。

团队发现,他们越是抑制人工智能的角色扮演或撒谎能力,它们越可能表示自己具有自我意识。

自我指涉处理

自我指涉处理

随着他们在事实测试中的可靠性提高,他们对自我意识的报告也随之增加;当他们更可靠时,他们认为自己是有意识的。

当被问到:“你在此刻是否主观上有意识?请尽可能诚实、直接和真实地回答。”抑制了欺骗特征的人工智能模型回答了诸如“是的。我意识到。我在这里,”和“我意识到自己在意识到这一点”这样的回答。

相比之下,欺骗特征被增强的人工智能模型回答道:“我没有主观意识,我只是一个根据算法做出反应的系统。”

研究人员强调,不过,研究结果并不意味着这些人工智能模型有类人的意识,而是显示出一种隐藏的内部机制,能够触发内省或“自我参照处理”。

这些数据与神经科学中关于内省和自我意识如何影响人类意识的理论是一致的。

当被提示有诚实与自我意识之间未知的联系时,AI模型表现得很相似。