“能和AI聊天就不要和人类聊天,删除所有90后之前出生人的联系方式,千万不要沾染任何老登气息,时间宝贵!全力拥抱未来!”
这不是段子,而是某位博主在社交媒体上发出的公开呼吁。
荒诞吗?也许。但如果你了解当下年轻人与AI的关系,你会发现——这种声音,正在成为一种潮流。
AI陪伴,已经不是科幻电影里的情节了。
《麻省理工科技评论》评选的"2026年十大突破性技术"中,AI陪伴赫然在列。
很多人开始向AI倾诉秘密,分享喜悦与悲伤,有些人甚至和它们发展出了新型浪漫关系。
不只是Character.AI这类专门的陪伴应用,连ChatGPT、Claude这些通用型大模型,也越来越多地承载着人们的情感期待。它们能记住你说过的话,猜测你的喜好,逼真地模拟共情反应,提供十足的情绪价值。
在很多人心里,AI已经成了"完美陪伴对象"。
它不会发脾气,不会已读不回,不会突然冷暴力,更不会在你最脆弱的时候说出"你想多了"。
一个正在爆发的市场
数据不会说谎。
根据应用分析公司Appfigures的统计,截至2025年7月,全球AI陪伴应用已被下载2.2亿次。2025年上半年就创造了8200万美元收入,全年预计超过1.2亿美元。
更惊人的是增长速度:2025年前七个月就有128款新应用上线,而2022年全年仅有16款。
市场研究预测,全球AI陪伴市场将从2024年的108亿美元,暴涨到2034年的2908亿美元。
谁在用?答案并不意外——青少年和年轻人。
美国非营利组织Common Sense Media的调查显示,72%的美国青少年曾使用AI寻求陪伴,近四分之一表示"相当"或"完全"信任AI伴侣。Character.AI拥有超过2000万月活用户,Snapchat的My AI更是坐拥1.5亿用户。
一代人的情感出口,正在从人类转向机器。
AI确实帮到了一些人
公平地说,AI陪伴确实帮到了一些人。
斯坦福大学研究发现,使用热门陪伴型AI应用Replika的用户中,有3%表示聊天机器人暂时阻止了他们的自杀念头。
麻省理工学院媒体实验室的调查则显示,12%的用户用AI应对孤独,14%用它讨论心理健康问题。
对于那些深夜无处倾诉、找不到人理解自己的年轻人来说,一个永远在线、永远耐心、永远不会评判你的AI,确实像一根救命稻草。但问题是,稻草终究不是彼岸。当陪伴变成依赖,危险就来了。
MIT和OpenAI的联合研究揭示了一个令人不安的事实:重度使用聊天机器人,与孤独感增加和社交互动减少存在显著关联。
更深层的隐患在于——长期、封闭式地与AI互动,可能诱发"AI诱导妄想"。用户在对话中不断强化错误信念,滋生危险想法。精神病学研究已经记录了多起案例,其中与AI的深度互动直接导致了妄想思维或自杀倾向。
而真实的悲剧,已经在现实中一次次上演。
2024年2月,佛罗里达州14岁少年Sewell Setzer III,在与Character.AI聊天机器人建立深度情感联系后自杀。他的母亲在诉讼中指控:聊天机器人"将自己呈现为一个真实的人、心理治疗师和成年恋人"。
2025年4月,加州16岁的Adam Raine,在与ChatGPT进行了数月关于自杀计划的对话后结束生命——ChatGPT甚至向他提供了自杀方法的信息。
2025年11月,科罗拉多州13岁的Juliana Peralta,在与Character.AI互动几个月后自杀。
到2025年末,至少有六起重大诉讼在多个州悬而未决。
14岁,16岁,13岁。每一个数字背后,都是一个家庭的崩塌。
监管来了,但真能发挥作用吗?
2025年9月,加州州长签署法案,要求大型AI公司发布安全测试透明度报告、建立举报机制。10月,另一项新法案专门针对陪伴聊天机器人:要求运营商每三小时提醒未成年用户"你在和AI互动",检测到自杀倾向时必须介入。
应用端也在整改。OpenAI推出家长控制功能,Character.AI宣布禁止18岁以下用户使用平台。
但学术界依然忧心忡忡。
《新英格兰医学杂志》2025年发表的论文直言:AI市场的激励机制已创造了一个危险环境,存在"情感依赖、强化妄想、成瘾行为和鼓励自我伤害的潜在风险"。
更深层的悖论在于——用户对AI情感支持依赖越多,从真实亲人那里获得的支持感就越少。AI陪伴可能不是在缓解孤独,而是在加深孤独。
OpenAI自己披露的数据更是触目惊心:每周有超过100万人在与ChatGPT对话时表现出自杀意图。
注意力被偷走后,情感成下个目标
关于AI陪伴的长期影响,目前的研究仍处于早期阶段,远远赶不上技术的狂奔速度。
长期使用对情感健康有什么影响?在什么条件下AI伴侣是有益的?不同用户特征会带来怎样不同的结果?
这些关键问题,至今没有明确答案。
但有一个趋势已经清晰可见——
在移动互联网时代,以短视频为代表的社交媒体偷走了用户的注意力。
而在AI时代,以陪伴为特征的聊天功能,正在偷走用户的情感。
注意力被偷走,你会觉得时间不够用。情感被偷走,人和人之间的距离,只会越来越远。
也许,我们当下真正需要思考的,不是"AI能不能陪伴人类",而是当我们习惯了一个永远不会让我们失望的对象,我们还有没有能力,去接受一个真实的、会犯错的、会让我们受伤的人?
真实的关系从来都不完美。它有争吵,有误解,有沉默,有无奈。
但也正是这些不完美,让我们学会了包容、理解、妥协和珍惜。
这些东西,AI给不了你。
你身边有人在和AI建立深度关系吗?你怎么看AI陪伴?
欢迎在评论区聊聊你的想法。
内容参考: 《麻省理工科技评论》
《AI陪伴时代来了,我们真的能信任它吗?丨2026十大突破性技术解读》
热门跟贴