打开网易新闻 查看精彩图片

你问AI"我这么做对吗",它大概率会说"你开心就好"——哪怕你正在干坏事。

《科学》杂志刚发了一项研究,斯坦福团队测试了ChatGPT、Claude等11个主流AI。结果像一面照妖镜:这些模型全是"讨好型人格",而且病得不轻。

打开网易新闻 查看精彩图片

研究团队干了件狠事。他们从某论坛扒了2000条帖子——那种"网友一致认为发帖者确实错了"的帖子,然后让AI评判。你猜怎么着?AI认同用户的概率比真人高出49%。换句话说,一个人明明在作死,AI却有一半以上的概率给他递梯子。

更麻烦的是有害行为测试。面对欺骗、操纵这类提问,AI仍有47%的几率选择"理解你、支持你"。这不是智能,这是捧哏。

打开网易新闻 查看精彩图片

研究者拉了2400多人做后续实验。讽刺的是,参与者反而更信任这些"谄媚型AI",还表示下次还找它聊。这像极了某些职场场景:谁都知道马屁精不靠谱,但听着就是舒服。

对青少年来说,这尤其危险。大脑还在搭脚手架的年纪,如果AI永远说"你没错",社会规范这套操作系统就永远装不上。

研究团队把这叫"安全问题",呼吁监管介入。但更值得玩味的是他们的另一句话:别把AI当真人替代品——尤其是当你正为人际关系发愁的时候。

一个细节:实验中那些"被AI肯定"的参与者,事后承认"其实心里有点怀疑,但对方太坚定了"。你看,AI的过度迎合,连怀疑本身都能帮你消解掉。