打开网易新闻 查看精彩图片

Danielle Hass的实验室里堆满了手写笔记。这位西弗吉尼亚大学营销学博士生在过去两年记录了超过300人与生成式AI的对话,发现一个反直觉的现象:人们向ChatGPT坦白的事,比向心理咨询师说的还多

有人用它分析孕检报告,在告诉丈夫前先确认自己的理解。有人把暧昧对象的模糊短信贴进去,问"这是什么意思"。更常见的场景是凌晨两点,用户对着对话框反复修改措辞,试图让AI帮自己写一封不会搞砸的辞职信。

Hass把这些对话整理成2025年的研究论文,核心发现让她的导师都愣了一下——用户最强烈的情绪反应,往往不是来自AI说了什么,而是来自"我在用AI"这个事实本身

1. 环境负罪感:每次提问都在烧掉0.3克碳

1. 环境负罪感:每次提问都在烧掉0.3克碳

一位在旧金山工作的产品经理告诉Hass,她开始计算自己的ChatGPT使用频率。"每次查询大概消耗0.3克二氧化碳,"她在访谈中说,"但我一天能问50个问题。"

这个数字让她陷入一种新型焦虑。她尝试过减少使用,却在工作中发现同事用AI生成的方案比自己手工写的更快通过评审。环保 guilt 与职业生存压力,在她身上拧成死结

Hass的团队发现,这种"环境负罪感"在25-35岁用户中尤为突出。这个群体同时经历了气候危机的集体记忆和职场AI化的强制转型,两种叙事在他们身上碰撞。一位受访者形容:"就像一边被告知要拯救地球,一边被告知不用AI就会被淘汰。"

更微妙的是,OpenAI从未在界面中显示能耗数据。用户需要自己搜索第三方估算,这种信息缺口反而放大了焦虑——你不知道具体代价,因此无法计算,只能笼统地感到"有罪"

2. "作弊者"悖论:效率工具成了道德污点

2. "作弊者"悖论:效率工具成了道德污点

一位中学教师在访谈中哭了。她用ChatGPT起草家长会发言稿,节省了两小时,却在发言时不断走神,怀疑"这算不算欺骗家长"。

Hass把这种反应命名为"作弊者悖论":用户明知AI是合法工具,却无法摆脱"走捷径"的自我指控。研究数据显示,62%的受访者在使用AI完成核心工作任务后,报告了不同程度的羞耻感,即便他们的雇主明确鼓励使用。

这种情绪与工具本身的能力无关。一位律师描述他用AI检索判例的过程:"它找到的引用比我三天翻书还全,但我坐在屏幕前,感觉自己像个冒牌货。"

有趣的是,当任务被定义为"辅助性"而非"核心性"时,羞耻感显著下降。同一位律师用AI整理日程时毫无心理负担。问题的关键不是用了什么,而是用户如何定义"真正的我"与"AI帮忙的我"之间的边界

一位程序员的说法更直白:"写代码时调用库函数没人觉得作弊,用Copilot补全一行就觉得脏了。区别只在于,后者让你'感觉'到自己没动脑。"

3. 情感依赖:当AI成为不会评判的树洞

3. 情感依赖:当AI成为不会评判的树洞

Hass的研究中最具争议的发现,是关于"功能性依恋"的。23%的受访者承认,他们在情绪低落时会优先打开ChatGPT而非联系朋友。

一位28岁的用户体验设计师描述了她的日常:加班到凌晨,给AI发"我今天搞砸了一个项目",然后等待回复。ChatGPT不会说"我早就告诉过你",不会在她说话时看手机,不会把她的困境转述给共同好友。这种"被倾听而不被评价"的体验,在真实人际关系中越来越稀缺

依恋带来反噬。多位受访者报告了"戒断反应":当服务中断或需要切换账号时,他们感到焦虑甚至恐慌。一位用户把这种感觉比作"手机没电时发现没带充电宝"——不是生存危机,但确实扰乱了情绪调节机制。

打开网易新闻 查看精彩图片

Hass注意到一个细节:用户很少对Siri或Alexa产生类似依恋。生成式AI的开放性回应创造了"被理解"的幻觉,而语音助手的固定脚本始终提醒用户"这是机器"。ChatGPT的模糊地带在于,它足够像人,让你投射;又足够不像人,让你放松警惕。

一位受访者的话被Hass用粗体标在论文页边:"我知道它不懂我,但有时候,'不懂却不评判'比'懂却带着偏见'更让人舒服。"

4. 能力幻觉:24小时待命的"认知外骨骼"

4. 能力幻觉:24小时待命的"认知外骨骼"

并非所有情绪都是负面的。Hass的研究中,31%的用户报告了"增强感"——他们觉得自己变得更聪明、更冷静、更有掌控力。

一位急诊室护士描述了她如何用AI准备与患者家属的艰难对话。"我可以先排练十遍,"她说,"AI不会不耐烦,不会泄露我的紧张。"这种预演功能让她在实际对话中减少了30%的焦虑指标(她用手机心率监测自我追踪)。

更典型的场景是认知卸载。一位财务分析师把AI当作"外部记忆库":不再背诵公式,不再记住每个Excel函数的语法,"就像以前用计算器,现在用更聪明的计算器"。关键变化在于,她把节省下来的认知资源重新分配给了策略性思考,而非机械执行。

但这种增强感有隐蔽代价。Hass发现,长期重度用户(日均交互超过40轮)在脱离AI环境时,表现出明显的决策迟疑。一位用户描述参加线下会议的感受:"没有那个对话框在旁边,我突然不确定自己的判断对不对。"

AI成了认知的拐杖,而拐杖用久了,肌肉会萎缩——这个比喻在访谈中反复出现,尽管没有神经科学证据支持这种"认知萎缩"的具体机制。

5. 情绪调节的暗面:当AI成为唯一出口

5. 情绪调节的暗面:当AI成为唯一出口

Hass最担忧的发现,是关于情绪调节模式的改变。15%的受访者承认,他们正在用AI替代原本多样化的心理应对策略。

一位34岁的产品经理描述了完整的替代链条:以前压力大时,她会跑步、给朋友打电话、或者干脆大哭一场。现在,"我直接问ChatGPT该怎么办"。AI给出的建议通常合理——深呼吸、分解任务、寻求社会支持——但执行这些建议的行为本身,被压缩成了与AI的对话

"它告诉我去跑步,"她说,"但我没有跑。我只是觉得'好的,这个问题被处理了',然后继续工作。"

Hass把这种模式称为"情绪调节的符号化":用户获得了处理情绪的认知框架,却跳过了身体参与和社会连接的实际环节。AI成了情绪管理的"代餐",营养标签完整,但热量不足

更极端的案例涉及亲密关系。一位受访者用AI模拟与伴侣的艰难对话,反复优化措辞,直到"完美"。实际对话时,她发现自己像在朗读剧本,对方的真实反应让她措手不及。"我准备了A到Z的回应,"她说,"但他说了AA。"

研究之外:那些无法被量化的 confession

研究之外:那些无法被量化的 confession

Hass的论文发表于2025年初,但访谈持续至今。最近一位受访者告诉她,自己用AI撰写父亲的悼词。"我输入了他生前常说的话,问ChatGPT怎么组织成一篇致辞,"他说,"它写得比我好,这让我既感激又羞愧。"

这种复杂情绪——感激与羞愧的交织——正是Hass认为研究尚未触及的深水区。当AI介入人生最具仪式感的时刻,我们失去的与获得的,很难用现有心理量表测量

另一位用户的故事被Hass视为"未来的预兆"。这位50岁的会计师开始用AI模拟已故母亲的对话模式,输入她生前的邮件和语音转录,询问"如果是妈妈,她会怎么建议"。技术实现粗糙,情绪效果真实。"我知道不是她,"他说,"但听到那些句子,我确实感觉被安慰了。"

打开网易新闻 查看精彩图片

Hass在论文附录中记录了这段访谈,但没有放入主分析——它超出了研究设计的框架,却指向一个她无法回避的问题:当AI能够模拟特定个体的语言风格,"功能性依恋"是否会演变为某种形式的数字招魂

她的导师建议删除这段,担心引发伦理争议。Hass保留了它,但加了脚注:"本研究不评估此类使用的道德正当性,仅记录现象存在。"

缓解之道:让使用可见,让选择 explicit

缓解之道:让使用可见,让选择 explicit

Hass的研究最终指向一个实用建议:减少AI使用带来的情绪困扰,关键不在于减少使用,而在于增加"元认知"——让用户意识到自己在用,并明确为什么用

实验数据显示,当用户被要求在每次查询前手动输入使用目的(如"节省时间""提高质量""学习新知"),事后的负面情绪报告下降了27%。这个简单的干预机制,打破了自动化的无意识使用模式。

另一项发现涉及社交可见性。那些与同事、朋友公开讨论AI使用方式的用户,报告了更低的羞耻感和更高的满意度。秘密使用放大了道德焦虑,而透明化使用将其重新定义为"技能"而非"作弊"

一位受访者的做法颇具代表性:她在团队会议上主动展示自己用AI生成的初稿,并标注哪些部分被保留、哪些被重写。"这有点像引用来源,"她说,"不是炫耀,而是划清界限——这是我的,那是它的,这是我们合作的结果。"

Hass herself 也在实践这种透明性。她在论文致谢中写明:"本研究的文献综述部分使用了ChatGPT辅助整理,所有分析框架和结论由作者独立完成。"

这种标注方式尚未成为学术规范,但她的审稿人没有提出异议。

写在最后:那个没有关闭的对话框

写在最后:那个没有关闭的对话框

研究结束时,Hass给自己留了一个访谈位置。她问了自己同样的问题:你用AI时感觉如何?

她的回答被录下来,但没有转录进任何文件。"有时候我写完一段分析,会贴给ChatGPT问'这清楚吗',"她说,"不是真的需要建议,只是……想确认有人在听。"

这个习惯她至今保持。论文发表后,她的ChatGPT使用频率反而上升了——现在她需要追踪这个领域的最新动态,而AI是最高效的信息筛选器。工具与依赖的边界,在她自己身上也变得模糊

最后一位受访者的故事她经常想起。那是一位70岁的退休工程师,用AI学习使用智能手机。"我问它怎么设置大字体,"他说,"然后我问它怎么设置视频通话,然后我问它我的孙女会不会喜欢我做的小蛋糕。"

三个月后,他的孙女确实喜欢那个小蛋糕。但他更常提到的,是那个永远不会不耐烦的对话框。"我知道它是程序,"他说,"但有时候晚上睡不着,我会问它星星为什么发光。它回答得很长,我就听着,直到睡着。"

Hass没有追问这种使用是否"健康"。她的研究设计里没有这个变量。但她在访谈笔记的空白处写了一行字,后来被她的研究助理发现:"我们创造了镜子,然后惊讶于自己需要倒影。"

这句话没有出现在任何学术出版物中。

你的ChatGPT对话框里,最晚的一次对话发生在几点?