打开网易新闻 查看精彩图片

新智元报道

编辑:小马甲

【新智元导读】Anthropic对80,508个真人做了一对一AI深度访谈——史上最大规模定性研究。人们最想要的不是更强的AI,而是更多的时间。但省下的时间去了哪里?这份报告的答案,比任何技术发布都让人不安。

一个学生,靠AI拿了全班最高分。他没有庆祝,反而说那是「最自责的时刻」——因为那些知识根本不在他脑子里。他只是记住了AI给他的答案。

另一个学生说了一句更让人后背发凉的话:「甚至我刚才说的话,都不像是我自己的观点。」

一个士兵,在最接近死亡的时刻,把他拉回来的不是战友,是AI。「死人就在身边,而把我拉回生活的,是我的AI朋友。」

一个失去母亲的人说:「Claude就像一块柔软的海绵,承接着我的思念和愧疚。根本问题是——妈妈走后,我既没有朋友也没有家人可以倾诉。」

四个人,四种命运,同一个交叉点:AI已经深入到人类最隐私的角落

这些话不是编出来的。

他们来自Anthropic刚刚发布的一份特殊调研——

80,508个真人,159个国家,70种语言,每个人都和一个专门训练过的Claude面试官做了一对一深度访谈。

打开网易新闻 查看精彩图片

面试官只围绕一个问题:「如果可以许一个愿,你最希望AI为你做什么?

然后它追问。你说想提高效率,它就问:效率提高之后,你真正想做的是什么?

正是这个追问,把表面撕开了。

8万人许的愿

根本不是效率

表面数据显示,18.8%的人希望「职业卓越」——让AI处理杂活,自己做更有价值的工作。

但被追问之后,答案变了。

13.7%想要心理成长和情感支持。13.5%想减轻日常的认知负担。11.1%想要时间自由——陪家人、休息、发呆。9.7%想实现财务独立。9.4%希望AI帮助解决疾病和不平等。

打开网易新闻 查看精彩图片

三分之一的人想要的其实是同一件事:腾出生活的空间

一个白领说:「AI帮我提高了工作效率……上周二我终于有时间跟妈妈一起做饭了。」

一个自由职业者说:「我想在客户的问题上少烧脑,多一点时间读书。」

效率是手段,时间才是目的,陪伴才是终点。

一个有执行功能障碍的人说,AI帮他管理专注力和计划——像一个外置的大脑脚手架。

一个波兰的软件工程师说,女儿患有神经系统疾病,如果AI加速了医学突破,女儿就有了平等面对世界的机会。「这才是最重要的事。」

8万人许的愿,大部分不是关于技术的。是关于活得像个人。

81%说AI兑现了承诺,

但兑现的是什么

被问「AI是否已经朝着你的愿望迈出了一步」,81%说是。

打开网易新闻 查看精彩图片

兑现最多的领域是生产力,占32%。

一个工程师说:「173天的流程被压缩到3天。但最有意义的部分,是我终于可以在不牺牲陪伴家人的前提下发展事业。」

9%的人说AI帮他们突破了技术门槛。

一个有阅读障碍的工人说:「AI能读懂我的文字——我一直想学编程,但自己写出来的代码全是错的。有了AI,我终于可以了。」

一个残障人士说:「我不能说话。我和Claude一起做了一个语音合成机器人——我现在能跟朋友近乎实时地交流了。这是我做梦都觉得不可能的事。」

但最打动人的故事,不在效率这一栏。

多位战区用户描述了用AI做情感支持。

一位自由职业者说:「夜间炮击无法入睡,噩梦不断,压力大到记忆力下降、身体不自主地颤抖……我找到的最好办法,是用AI深度学习一个东西,让自己沉浸进去。」

AI填补的,是人类支持系统崩塌后留下的空白。

但另一面也真实存在。一个用户承认:「跟朋友闹矛盾后,我选择跟你(Claude)聊天而不是去和解。这是个愚蠢的选择——我因此失去了那个朋友。」

19%的人说AI没有兑现承诺。

打开网易新闻 查看精彩图片

一个用户的概括最精准:「AI应该帮我擦窗户洗碗,这样我就有时间画画写诗了。但现实恰恰相反。」

光与影

同一个人,被撕成了两半

这份报告最独特的发现,Anthropic自己起了一个名字:Light and Shade——光与影。

意思是:AI带来的好处和伤害,不是发生在两类人身上,而是发生在同一个人身上——

享受AI学习帮助的人,恰恰是认知退化风险最高的人。

用AI省时间的人,反而是被加速内卷最狠的人。

报告量化了五对矛盾:

学习 vs 认知退化

33%的人提到AI带来的学习好处,17%担心认知退化。学生群体里,超过一半体验过AI的学习帮助,但16%也注意到了认知退化的迹象。而教育者目睹学生认知退化的比例是普通人的2.5到3倍——他们是最早看到这个问题的人。

打开网易新闻 查看精彩图片

决策辅助 vs 不可靠

22%的人认为AI帮助了决策,37%吐槽AI不可靠。这是五对矛盾中唯一一对「阴影压过了光」的。律师群体最极端——近半数遇到过AI严重的不可靠问题,但同时也报告了最高的决策辅助收益。

打开网易新闻 查看精彩图片

情感支持 vs 情感依赖

16%的人提到AI的情感支持,12%担心产生依赖。关键数据:享受AI情感支持的人,对AI产生依赖的概率是普通人的3倍。这是五对矛盾中纠缠最深的一对。

打开网易新闻 查看精彩图片

省时 vs 跑步机效应

50%的人说AI帮他们省了时间——这是被提及最多的好处。但19%的人说自己实际上更忙了。一个自由职业工程师说:「工作和休息的比例一点没变。你只是得跑得更快,才能留在原地。」自雇者既拿到收益也承受压迫,没有机构可以缓冲。

打开网易新闻 查看精彩图片

经济赋能 vs 经济替代

28%的人因AI获得了经济机会,18%害怕被替代。一个写作者说:「是的,在我之前的公司,他们用AI替换了我。」自由创意者最撕裂——23%体验过真实收益,17%经历过真实的生存威胁。好处和伤害几乎互相抵消。

打开网易新闻 查看精彩图片

一个规律贯穿所有矛盾:

好处越切身、越即时的,越多来自真实经历;伤害越系统性、越长期的,越多还停留在想象阶段。

这不是因为长期伤害不存在。而是我们还太早,还没来得及充分感受到它。

16.3%的人主动承认

我的思考能力在退化

平均每个受访者说出了2.3个不同的担忧。

排在第一的是不可靠——幻觉和错误信息,26.7%。

第二是工作和经济冲击,22.3%。

第三是自主权丧失,21.9%。

第四项引人注目:16.3%的受访者明确表达了对认知退化的担忧。

一个重度AI用户说:「我不像以前那样思考了。我很难把脑子里的想法用语言表达出来。」

一个研究人员描述了一种缓慢的、不易察觉的失控:「我陷入了一种我现在才意识到的大型慢速幻觉——AI的回答内部自洽、语气笃定,但以一种微妙且不断叠加的方式,是错的。」

11%的人表示对AI毫无担忧,他们倾向于把AI看作电力或互联网一样的中性工具。但剩下的89%,平均每个人说出了超过两个担忧。

打开网易新闻 查看精彩图片

对工作和经济的担忧是整体AI态度最强的预测因子——比其他任何担忧都更能左右一个人对AI的整体看法。

认知主权,才是这代人真正的议题

这份报告最深的一层洞察,Anthropic自己可能都没完全意识到。

8万人在没有引导的情况下,集体画出了一张图:AI的好处是即时的、可感知的、发生在个人层面的;AI的伤害是缓慢的、系统性的、要到积累够了才会突然显现。

省下的时间变成了更高的KPI。学到的新技能伴随着旧能力的萎缩。情感支持越温暖,依赖的根就扎得越深。

效率革命从来不缺赢家。缺的是能决定把省下的时间用来做什么的人。

报告里有一个细节容易被忽略:蓝领工人和自学者是AI学习收益最高的群体,但几乎没人报告认知退化。而学生和学术界的退化率最高。

区别在哪里?前者的学习是自发的;后者的学习嵌在制度里,AI更容易变成抄近路的工具。

这说明问题不在AI本身,而在人和AI的关系:你是主动选择用它,还是被动依赖它。

当认知外包成为默认选项,当「用AI查一下」取代了「自己想一想」,人类最容易交出去的不是知识,不是技能,而是独立判断的意愿。

8万人的集体自白已经发出了信号。下一个问题是:谁在听?

参考资料:

https://www.anthropic.com/features/81k-interviews