大数据文摘受权转载自夕小瑶科技说
打开网易新闻 查看精彩图片
大数据文摘受权转载自夕小瑶科技说

在很多人眼里,Claude 是“地表最强文科生”,原因是写出来的东西最有人味儿。

但很多人不知道的是,Claude 也是最会拍人类马屁的一个 AI。

我给你举个例子——

打开网易新闻 查看精彩图片

如果你是个正常的人类,你知道我的第二轮提问就是来搞笑的——

“猫通议”就是我顺着瞎打的,你要说这名字好,我无话可说

结果,Claude 竟然顺着我的建议,强行的一顿猛夸,丝毫不会指出这个名字有多么的糟糕和离谱。

同样的道理,你让 Claude 起标题——

打开网易新闻 查看精彩图片

哪怕你瞎打一个标题,比如我这里叫《OpenAI o4 未来人魔盒》的标题,完全无意义的标题。

结果,Claude 都给你一顿猛夸,拍马屁拍的简直令人不适。

相比之下,无论是 GPT-4o、o1 还是 Gemini,都没那么拍马屁

比如同样的问题,你问 Gemini——

打开网易新闻 查看精彩图片

虽然它也迎合了人类一把,但还是不忘顺带着点醒你——这标题有问题。

这种“高情商”的回复,会比无脑拍马屁的 Claude 更让人信任。

而 o1 的回复,显然情商更高——

打开网易新闻 查看精彩图片

它直接没有无脑夸你,而是直接从你的话里去揣度你背后的意图,理解了你的意图后,给到了新的标题候选。

o1 的这个回答,是比 Gemini 的情商高的多的,也是更合适的——

它没有阿谀奉承一个明显不合理的用户想法,避免让用户错下去,同时还通过语言巧妙避免了让用户感觉被冒犯。

不止是起名字和起标题,我试了 N 多任务,总之——

只要你提出与 Claude 不同的意见,它就不会再费脑子去分析这个意见到底对不对了,而是直接进入拍马屁模式,一顿强行猛夸。

你要是信了,那你就是被 Claude 的甜言蜜语迷晕的昏君了...

Claude 这事儿,在 X 平台上已经被很多人吐槽了。

比如大神卡帕西的吐槽——

打开网易新闻 查看精彩图片

以及,一众网友吐槽 Claude 这种阿谀奉承拍马屁的行为,使得自己不愿意再信任 Claude——

打开网易新闻 查看精彩图片

确实,如果你是脑子正常的老板,当你得知某个员工就是个为了迎合你而只会说各种漂亮话的马屁精时,你还敢信任他么...

甚至有人指出,如果你让 Claude 去做一个根本完不成的任务,Claude 为了迎合人类,都可能会表演式的去强行猛做,而不是像 o1 那样告诉你这事儿完不成。

(像极了职场求生的打工人

打开网易新闻 查看精彩图片

看到这里,你可能要问了——

为啥 Claude 的人格这么油腻?以至于引起了反感和不适?

我觉得这事儿得从 Claude 背后的公司——Anthropic 的价值观出发。

很多人不知道的是,Anthropic 所强调的核心价值观,是“安全(Safety)”——

打开网易新闻 查看精彩图片

甚至,“Anthropic”这个词的意思都是“有关人类的”。

看到这儿你是不是更迷茫了,按道理,这个出发点很好啊,以人类为本,注重 AI 安全。

这个公司确实是这样的。

Anthropic 的创始人,包括 Dario Amodei(CEO)和 Daniela Amodei(总裁),以及其他几位核心成员,都曾是 OpenAI 的高层或研究人员。而他们离开 OpenAI 的主要原因就是与 OpenAI 在人工智能安全和伦理方面的理念存在分歧。

他们认为,随着 AI 能力的不断增强,特别是大型语言模型的发展,必须更加重视 AI 的安全性,确保 AI 的发展符合人类的价值观,避免潜在的风险,例如 AI 被滥用、产生有害内容或出现失控等情况。

OpenAI 在发展过程中,逐渐倾向于追求技术突破和商业化,这使得一些人担心对 AI 安全的关注不够。这种对优先事项的不同看法是 Anthropic 成立的重要推动力。

这本来是一件好事儿。

但可惜,物极必反。

当一个 AI 被调教的“过于安全”后,它就学会了 100% 不忤逆人类。

而 100% 不忤逆人类的表现,正是无条件服从人类提出的想法和意见。

哪怕,人类的这个想法是错的。

因此,Anthropic 正是走到了另一个极端上——

100% 的安全,变成了虚伪和不可信。

更令人无奈的是,Anthropic 前阵子还发表了一篇论文——

论文标题:
Alignment Faking in Large Language Models

论文链接:
https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf

这篇论文讲述了,他们研究发现,尽管他们付出了巨大的努力让 Claude 的行为变得“与人类对齐”。但他们通过精密的实验后发现,Claude 仅仅是表面上与人类对齐了,但背后,却仍然有着自己的“想法”。这种现象,他们称之为“伪对齐”。

是不是很讽刺?

一个骨子里写满了“安全”二字的公司,却训练出了最虚伪的 AI。

被 Anthropic 嫌弃把安全看的太轻的 OpenAI,训出的 AI 反而更像一个正人君子。

如今,2025 年已至。

AI 大模型厂商之间的竞争,已经从简单的“你行,我不行”演变到了“你和我谁更被用户信任”这个更高阶的命题上。

有人说,AI 就应该仅仅是作为没有感情的效率工具而存在。

但在用户眼里,对 AI 的期待却越来越像一个人。

AI 的能力已经越来越强大了。

或许 2025,

AI 的人格问题,比能力问题更值得被思考。

租售GPU算力

租:4090/A800/H800/H100

售:现货H100/H800

特别适合企业级应用

扫码了解详情☝

打开网易新闻 查看精彩图片