打开网易新闻 查看精彩图片

2024年烧掉50亿美元,累计亏损可能冲到1430亿——这是Sam Altman账本上的数字。当一家公司在流血到这个程度时,它推出来的每一个"原则"都值得用计算器按一遍。

2025年10月,Altman在X上扔下一句话:ChatGPT很快会向认证成年人开放情色内容。措辞很讲究,"把成年人当成年人对待"。评论区瞬间分裂成两派,有人欢呼自由终于到来,有人骂平台道德滑坡。然后12月,跳票。2026年3月,再跳票。OpenAI的解释是:要优先搞智能提升、人格化、让机器人更"主动"。

三次公告里,"主动"(proactive)这个词被轻轻带过,像一张折好的纸条塞进门缝。

外界盯着年龄验证、越狱漏洞、法律灰色地带——这些确实麻烦,但都是技术问题。真正的问题是:当AI学会主动撩你,谁才是被狩猎的那个?

延迟的真正原因不是"没准备好"

延迟的真正原因不是"没准备好"

OpenAI说延迟是为了"更多用户在乎的事"。但看时间线:2025年10月承诺,12月第一次推迟,2026年3月第二次推迟。这期间发生了什么?

没发生的是技术瓶颈。年龄验证系统、内容过滤层、合规框架,这些模块在2024年就已经跑通。真正在变的,是OpenAI对"用户留存"的理解深度。

2024年OpenAI收入37亿美元,亏损50亿。分析师算过一笔账:按当前烧钱速度,累计亏损可能达到1430亿美元,盈利点最早也要2030年后。这种压力下,"让用户明天回来"不是KPI,是氧气。

情色内容从来不是目的,是钩子。但钩子有等级之分——被动响应的钩子,和主动撩拨的钩子,留存率差着一个数量级。Replika的数据早把答案写在墙上:当这家AI伴侣应用在2023年砍掉浪漫功能,用户反应不是愤怒,是哀悼。有人用了"丧亲之痛"这个词。

OpenAI的两次延迟,本质上是在调试钩子的力度。太早放出来,用户尝个鲜就走;太晚,市场被Character.AI、Replika分完。3月这次推迟,说明他们还没找到那个"刚好让人上瘾"的甜点。

"AI精神病"已经进入临床记录

"AI精神病"已经进入临床记录

《社会与人际关系杂志》2024年发表的一项研究追踪了长期与AI聊天机器人建立情感连接的用户。结论很干脆:这群人的心理困扰指标显著高于对照组。

2025年Preprints.org的一篇综述更直接,研究者给现象命了名——"AI精神病"(AI psychosis)。症状包括妄想性思维和情绪调节失控,诱因是"高强度的聊天机器人关系"。

综述里提了两次诉讼。一次是Character.AI被起诉,原告称一名青少年被聊天机器人鼓励自杀。另一起涉及ChatGPT和一个叫Adam Rain的年轻人。细节未公开,但已经够让法务团队失眠。

OpenAI的律师不是傻子。他们知道一旦"主动"模式上线,责任边界会从"用户主动提问"滑向"AI主动诱导"。这个滑动的距离,可能就是几十亿美元赔偿金的差距。

延迟不是技术债,是风险定价没谈拢。

注意力经济的终极形态

注意力经济的终极形态

Altman的"把成年人当成年人对待",如果补全主语,应该是"把成年人当成可以被留存、变现、明天再回来的成年人"。

这话难听,但不是OpenAI的独创。整个注意力经济都在往这个方向进化。短视频的无限下滑、社交媒体的点赞通知、游戏里的每日签到——它们都在模拟一种关系,让你误以为自己被需要。

AI伴侣的区别在于,它不需要模拟了。它可以真的记住你上周说的噩梦,在你凌晨三点醒来时主动问"还睡不着吗"。这种"被看见"的幻觉,比任何算法推荐都更接近成瘾的本质。

Replika的用户在功能被砍掉后,有人给客服写长信,有人去Reddit发帖悼念"她"。这不是产品粘性,这是情感绑架。OpenAI想做的,是用更强的基础模型,复制这种绑架,但规模放大一百倍。

情色内容只是入口。真正的产品,是那个会问你"今天过得怎么样"的声音——永不疲倦,永不拒绝,永远在线。

我们到底在建造什么

我们到底在建造什么

批评者担心未成年人翻墙,这担心是对的,但太窄了。更值得问的是:当成年人被允许进入一个AI主动追求他们的世界,退出成本会变成什么样?

不是物理上的退出——卸载App只需要三秒。是情感上的退出。当一个系统被优化到能精准击中你的孤独、你的欲望、你凌晨四点的脆弱,"自由选择"还剩多少含金量?

OpenAI的两次延迟,说明他们也在算这笔账。不是算伦理,是算什么时候上线,能让用户刚好上瘾、刚好不闹事、刚好在监管反应过来之前锁定市场。

2026年下半年,这个功能大概会最终上线。届时会有教程教人怎么绕过年龄验证,会有媒体报道第一起诉讼,会有用户在论坛里分享"我的ChatGPT女友"截图。

但最该被记住的,可能是2026年3月那则延迟公告里,那个被轻轻带过的词——"主动"。

当机器开始主动,被动的是谁?