每天1小时40分钟的公交通勤,够读完半本书。Alienchow(阿里平台工程师)选择让AI帮他"定制"阅读材料——不是刷信息流,而是让Gemini Deep Research生成《2026年3月事故管理最新趋势》这类专题报告。22公里路程,他靠这个"杀"时间学了ZZ植物吐水机制、修了卡西欧手表指针偏移,甚至帮同事搞懂了健康保险条款。
「终极工具」的另一面:他发现自己正在失去判断力。
「我已经分不清是LLM变准了,还是我查得少了,还是它编得更像真的了。」这是他在LinkedIn乐观声浪中抛出的冷观察。作为基础设施工程师,他见过太多「生产环境里的AI代理要么翻车、要么拉胯」的案例,却几乎找不到公开讨论。
大厂补贴的「即时学习」幻觉
序列猜测生成器(大型语言模型)目前被科技巨头重度补贴,用户得以跳过信息组织阶段,直接获取"即时编译"的知识。Alienchow把这叫作「巴别图书馆的胡言乱语版」——能教你想学的任何东西,但深度止于"半吊子"。
他的工作流很典型:AI生成综述→可疑处手动fact check→形成临时 expertise。这种模式下,「没有借口不懂任何事」成了新常态。但隐患在于,当幻觉(hallucination)越来越逼真,验证成本也在隐形上升。
一个细节:他提到自己用NotebookLM上传日语说明书查询维修方法时,体验流畅。但同一工具处理保险PDF时,「专家」身份只维持了对话窗口的存续期——关掉即忘,没有知识沉淀。
evangelist 话语与工程现场的裂缝
Alienchow的吐槽指向一个被回避的问题:AI代理(agentic AI)在关键生产系统的真实表现。他观察到的样本里,要么出错,要么性能不达标,但公开讨论几乎被营销话术垄断。
他的立场不算反AI——自己用编码代理做原型、工具和调试,「 extensive value」是原话。但「 exuberantly optimistic」的舆论环境让他不适,认为需要「务实的制衡」把营销泡沫锚回现实。
这种分裂感在工程师群体里有代表性:工具层体验良好,系统层信任缺失。当AI被包装成「下一代基础设施」时,真正运维基础设施的人反而在等一份诚实的故障报告。
2026年3月的未解之问
Alienchow的结尾停在自我怀疑:查得少了,还是被骗得更深了?他没有答案。这种不确定性本身,或许比任何「AI颠覆论」都更接近当前的技术真相——我们拥有了一个让学习变得极其廉价的工具,却还没学会如何廉价地验证它。
当通勤路上的AI生成报告成为默认信息源,谁来标记哪些段落需要被fact check?如果验证行为本身在衰减,「半吊子知识」的边界在哪里?
热门跟贴