你有多久没打开过那个每月20美元的AI订阅了?一位用了三年ChatGPT的老用户说,他每天只用它做一件事——检查文章标题。这和我们想象的全能AI助手,差距有点大。

正方:LLM本该改变一切

打开网易新闻 查看精彩图片

2022年底,OpenAI放出ChatGPT的时候,很多人和我一样的想法:终于不用开十几个浏览器标签页查资料了。免费的文章选题、自动研究、一键总结——这些承诺听起来像给知识工作者发了一张"效率豁免卡"。

三年过去,这位用户的实际体验是:研究功能"时灵时不灵", hallucination(幻觉)问题让他不得不回头人工核实所有事实、数据和来源。他试过用ChatGPT和Claude做选题策划,结果"总是低于预期"。

Claude的agentic capabilities(智能体能力)确实更强,但设计目标就是给"更高级的用户"。普通用户够不着,也用不上。

反方:我的日子没有AI照样过

这才是最扎心的发现。这位用户坦承:截至今天,他"没有ChatGPT、Claude、Gemini或Perplexity,照样能过一天"。

他现在的真实使用场景是什么?

专业用途:把文章标题丢给ChatGPT免费版,完事。

私人用途:让ChatGPT帮忙缩减游戏待玩清单,或者让Claude给派对做个小测验。

没有深度分析,没有文档总结,没有研究辅助。那些我们以为的"杀手级应用",在他这里变成了偶尔玩一下的彩蛋功能。

本地模型的尴尬位置

原文还提到一个细节:本地部署的大语言模型"永远不会比得上云端模型"。

这句话背后是一整批技术爱好者的困境——想摆脱订阅费、想保护隐私、想完全掌控,但性能差距让这条路成了技术宅的玩具,而非普通人的工具。

云端的太贵,本地的太弱,中间地带空着。

我的判断:产品找到了用户,但用户没找到刚需

这件事的重要性在于:它戳破了一个行业幻觉。

过去三年,AI公司拼命堆参数、卷多模态、推智能体,假设"只要能力够强,用户自然会来"。但这位老用户的经历说明,能力曲线和刚需曲线可能根本没交汇。

他每天打开ChatGPT,却像打开一个高级计算器——有用,但随时可以关掉。Claude的复杂功能摆在那里,但门槛把大多数人挡在外面。本地模型给了自由,却给不了质量。

这不是技术失败,是产品-市场匹配的错位。AI找到了"使用场景",但没找到"不可替代的场景"。

当一位从2022年就开始用的早期用户,三年后最大的依赖只是"检查标题",整个行业或许该重新问:我们解决的到底是用户的问题,还是自己的估值叙事?

如果明天ChatGPT突然消失,你的工作流会崩溃吗——还是根本不会注意到?