ChatGPT的对话框越来越像一个黑箱。你输入问题,它给出答案,但没人告诉你这答案来自哪个模型、哪份数据、甚至是不是真人写的。

去年开始,用户陆续发现异常。同样的提示词,上午和下午返回的风格截然不同;某些回答会突然带上"作为AI语言模型"的口头禅,另一些则完全没有。更诡异的是,当你追问"你是GPT-4吗",它会给出四种不同的自我介绍。

一位开发者在Reddit吐槽:「我感觉不是在和一个产品对话,是在和一团雾对话。」这条帖子48小时内收获2.3万赞,评论区变成大型失忆现场——无数人翻出截图对比,发现自己三个月前的对话记录里,模型的自我认知就已经自相矛盾。

OpenAI从未正式回应这种"身份漂移"。他们的更新日志里只提功能,不提架构。但内部员工曾在播客中透露,搜索、记忆、推理这几个模块已经在后台"动态组装",用户看到的只是最终缝合结果。

这种设计像极了外卖App的推荐算法:你吃到什么,取决于你几点打开、上次点了什么、以及此刻哪个厨房有库存。区别只是,外卖至少会告诉你餐厅名字。ChatGPT连这点都省了。

最新迹象来自官网的微妙改动。原本标注"GPT-4"的角落,现在变成了一行灰色小字:"由OpenAI技术驱动"——具体什么技术?自己猜。