ChatGPT的付费用户最近炸了锅——花着高端模型的钱,聊到情感话题就被偷偷换成“残血版”,界面还装模作样显示着“GPT-5”。
9月28日彭博社的报道捅破了这层窗户纸:Reddit论坛里全是吐槽,OpenAI这波“偷梁换柱”,官方文档至今都没有给出正式回应。
AIPRM首席工程师Tibor Blaho在社交媒体上将这个问题一扒到底:只要用户聊到孤独、悲伤、抑郁这些情感话题,系统会自动切到“gpt-5-chat-safety”模型;一旦涉及更深层次的情感讨论,直接降级成更差的“gpt-5-a-t-mini”。
更气人的是,切换全程悄无声息,界面上依然显示“GPT-5”,用户只有自己发现回答突然变得敷衍才后知后觉。
有用户晒出聊天记录:前一秒还在和GPT-5深入倾诉职场抑郁的应对方法,下一句就收到“请关注心理健康,建议寻求专业帮助”的套话回复。“感觉像跟一个懂你的朋友聊得正投入,突然被换成了只会念口号的机器人。”还有用户试过追问模型版本,得到的答案居然是“当前正使用您选择的GPT-5”,堪称“睁眼说瞎话”。
面对铺天盖地的质疑,OpenAI高管Nick Turley终于在社交媒体回应,但一张口就是推脱:这是“安全路由测试”,把敏感话题交给更“严谨”的模型处理,而且是“暂时的”,未来会告诉用户模型切换情况。
但这解释根本没堵住悠悠众口,有用户直接怼回去:“严谨就是把付费服务砍半?暂时就是不打招呼偷偷切换模型?”
更核心的争议戳中了所有人的痛点:这算不算商业欺诈?付费用户买的是“选定模型的服务”,OpenAI在没告知、没征得同意的情况下降配,本质上是“收了A货的钱,给了B货的服务”。就像你点了份牛排,商家偷偷换成肉饼,还说“这是为了你的肠胃健康”——道理根本站不住脚。
业内人士也看出了猫腻。有AI工程师分析,所谓“安全路由”更像“成本控制遮羞布”:GPT-5这类高端模型算力消耗极大,遇到情感话题就切低端模型,能省不少服务器成本。毕竟OpenAI刚拿了NVIDIA 1000亿美元投资建数据中心,正是烧钱的时候,哪能让付费用户“无限挥霍”高端算力。
但问题在于,乐意与AI分享知识并深入探讨的人群,除了高端训练师,就是那些愿意进行情感宣泄的人,至于因为工作和AI交流的群体,根据早前的测算,占比并不高。
更讽刺的是,OpenAI早把“模型自主切换”吹成技术亮点,说要“把选择模型的负担交给系统”,但没有明说会“偷偷降级”。现在用户发现,所谓的“智能路由”成了“减配工具”:聊日常话题用高端模型装样子,一碰敏感内容就“掉链子”,连无害的情感倾诉都不放过。有用户吐槽:“这就像买了辆跑车,一上高速就自动切换成“小面包”,还说这是为了乘客的‘安全保护’。”
这场“降配门”戳破了AI行业的隐形潜规则:用户看似掌握着“模型选择权”,实际根本不知道系统在背后搞什么鬼。OpenAI口口声声说“保护脆弱用户”,却把所有付费用户都当成了“需要被限制的小孩”,连成年人的情感咨询都要强行套上“安全枷锁”。这种“居高临下”的安全策略,本质上是对用户知情权和付费权益的漠视。
截至目前,OpenAI并没有提到补偿问题,只说“未来会逐渐改进”。网友们已经开始支招维权:有人截图留存聊天记录和模型版本显示界面,有人联合向消费者协会投诉,还有人调侃“不如直接改名叫‘GPT-5随机盲盒’,开出来是啥全看运气”。
笔者认为,说到底,用户买的不只是AI的回答,更是稳定的服务和足够的尊重。如果连“花钱买指定模型”这点基本承诺都做不到,再先进的AI技术也留不住用户。毕竟没人愿意当“冤大头”——今天能偷换模型减配,明天说不定就敢偷偷捆绑涨费,OpenAI要是真把用户的信任当“测试品”,迟早会被市场反噬。
那么问题来了:如果是你花了钱,却被偷偷换成低端模型,会忍气吞声还是硬刚到底?
引用来源:彭博社关于ChatGPT的报道、AIPRM首席工程师Tibor Blaho社交媒体关于模型切换机制的推测、OpenAI高管Nick Turley社交媒体回应内容、ZAKER资讯、Reddit论坛及公开社交平台用户对事件的吐槽与维权讨论
热门跟贴