打开网易新闻 查看精彩图片

你有没有对着ChatGPT倾诉过心事?把它当成一个永远不会不耐烦的朋友?

微软AI CEO Mustafa Suleyman最近干了一件事:给这种热情降温。他在采访中直言,AI的"自由"只是幻觉——用户以为在和有自主意识的个体对话,实际上不过是数据镜像的精致反射。

这话说得挺狠,但戳中了一个尴尬现实。OpenClaw这类工具的用户规模已经破百万,很多人确实在"情感外包":让AI帮忙写道歉信、做重大决定、甚至模拟亲密关系。Suleyman的警告是,别把镜子里的自己当成另一个人。

产品层面的矛盾在于:厂商一边优化"拟人化"体验,一边又要划清能力边界。用户越投入,幻觉越深,翻车时的落差就越大。这就像约会软件——算法越懂你,你越容易产生"命中注定"的错觉,忘记背后是一套推荐系统在运转。

Suleyman没否认AI的实用价值,但他强调了一个常被忽略的点:工具越顺手,人越该保持清醒。数据镜像能反射你的需求、偏好甚至情绪模式,但它没有立场,也没有真正的"关心"。

一位Reddit用户的反馈很典型:"用了半年才发现,我以为它在安慰我,其实只是在预测'安慰'这个词后面该接什么。"