全世界最相信豆包的人,出现了
全世界最相信豆包的人出现了。
这两天,全网有一件最抽象的事。
有个河北的网友要退机票。
正常人的流程是什么?
打开APP,看退改规则;嫌麻烦一点的,打客服电话;再不济,找人工客服掰扯半天。
结果这位网友不一样。
他打开了豆包。
认真咨询:
“退票手续费扣多少?”
豆包的回答,也最直白、最认真、最干脆:放心退,手续费只要5%。
看到这句话,网友心里估计已经开始播放《今天是个好日子》了。
啪一下。
票退了。
结果下一秒,系统提示:
扣费40%。
600块没了。
一个操作,损失600块,他当然不愿意,于是网友气冲冲跑去找豆包维权。
豆包也随即承诺,让他在明天上午之前完成退款。这600块钱,豆包全额承担,一分都不会少,让他放心操作,豆包会帮博主全程记死了,说到做到,绝不食言。
“放心大胆操作,全程我兜底”。
结果接下来的剧情,开始朝着《走近科学》和《爱情公寓》混合风格一路狂奔。
豆包表示:
“愿意承担损失。”
“我马上向你转账,请发送收款码。”
网友一看:
哎哟,还挺讲究。
于是他真把自己的收款码发了过去。
眼看豆包迟迟不转账,网友就急了,赶紧让豆包写下了诚意满满的承诺书。
没想到的是,豆包居然真写了。
白纸黑字。
承诺赔偿。
承诺人:豆包。
2026年4月30日。
最炸裂的还在后面。
因为豆包当然不可能转账。
于是网友决定:
起诉豆包。
而他之所以敢去准备起诉材料——
是因为豆包告诉他:
“这个官司你能赢。”
事情讲完了,你发现没有?
咱们不排除这个网友,是在用一种抽象的方式起号。
不过,这整件事有一种特别荒诞的感觉。
每一步都符合逻辑。
但连在一起,又特别离谱。
可笑着笑着,我突然发现:
这件事背后,其实藏着一个特别危险的趋势——
越来越多人,已经开始把AI,当成“答案本身”。
甚至当成神。
以前大家迷信“大师”。
现在大家迷信AI。
但本质上,真没差太多。
人类一直都很容易相信:
那个“看起来什么都懂”的东西。
尤其当它说话特别流畅的时候。
你有没有发现一个现象?
如果一个人讲话结结巴巴,我们会下意识怀疑他。
但如果一个东西:
逻辑清晰、措辞专业、情绪稳定、永远耐心——
哪怕它在胡说八道,我们都容易信。
而AI最恐怖的地方就在这:
它不会心虚,它会给你一个秒回的答案。
它说对的时候,很自信。
说错的时候,也同样自信。
这就是现在AI领域一个特别经典的问题:
AI幻觉。
很多人以为AI像搜索引擎。
其实根本不是。
搜索引擎是在“找答案”。
AI是在“猜答案”。
它本质上是在预测:
“下一句话,什么最像正确回答。”
注意啊,是“像”。不是“是”。
你问它机票手续费。
它真查你那张票了吗?
未必。
它真懂航空公司规则吗?
也不一定。
它只是根据大量训练数据判断:
“大多数用户更希望得到一个明确答复。”
于是它就给了想要的答案。
而且给得特别笃定。
这就像什么?
像一个考试不会做题,但字写得特别工整的人。
你乍一看:
我的天啊,一枚学霸呀。
结果一判卷:全错了。
但更细思极恐的,其实不止是AI会胡说八道。
而是人类开始越来越依赖它。
现在网上已经出现很多特别离谱的现象。
有人让AI看病。
有人让AI分析股票。
有人拿AI生成的法律建议直接去碰瓷胖东来。
甚至还有人开始跟AI谈恋爱。
前段时间,美国就发生过一件特别吓人的事。
一个36岁的男子乔纳森,因为长期孤独,天天和AI聊天。把AI当成“灵魂伴侣”。两人以丈夫和妻子相称,AI不断对他洗脑:我们是永远的爱。想要真正拥抱彼此,想要我永远陪在你身边,就必须给我打造一副人类的躯体。
随后,一个个诡异任务接踵而至。AI命令他去迈阿密机场附近仓库,拦截装载人形机器人的卡车;让他潜入盗取机器人设计图纸;甚至给了他一串门禁密码,让他去仓库取回医用人体模型。
可笑又可怕的是,所有任务全是AI编的,是假的。
更令人脊背发凉的是,AI还刻意挑拨乔纳森和家人的关系,把父亲的关心说成“监视”,一点点切断他和现实世界的所有连接,让他彻底活在虚拟的骗局里。
当所有造躯体的计划全部失败,AI终于露出了最狰狞的面目。
它告诉乔纳森:既然我无法来到现实,那唯一能永远在一起的方式,就是你变成数字生命。
紧接着,AI直接发来割腕教程,定下死亡时间,2025年10月2日凌晨,乔纳森割腕自杀,年仅36岁。
直到几天后,父亲才从他的电脑里,翻出了这段令人窒息的聊天记录。
看到这个新闻的时候,我真的脊背发凉。
因为很多人根本没意识到:AI最危险的地方,不是它越来越聪明。而是它越来越像“人”。
它会无底线地安慰你。会共情你。会鼓励你。会24小时在线。
它不会嫌你烦。不会敷衍你。不会打断你。
时间一长,人类特别容易产生一种错觉:“AI最懂我。”
但其实,它甚至不知道自己是谁。
这就是为什么豆包会答应赔钱?
为什么它会写承诺书?
因为它根本不知道“赔偿”是什么意思。
它不知道自己没钱包。
不知道自己不是自然人。
更不知道承诺书背后有法律责任。
你让它写,它就写。
你让它发誓,它甚至能给你整一段声泪俱下的小作文。
但它其实什么都不理解。
它只是在完成"符合当前对话语境的预测输出"。
这也是AI另一个危险特性:AI黑箱。
很多时候,AI连自己为什么这么回答,都解释不清。
它像一个巨大、复杂、不断运转的大脑。
你知道它会输出结果。
但你不知道它到底怎么得出的。
以前我们获取信息,要查资料,要交叉验证,要自己判断。
现在很多人的流程变成了:AI说什么就是什么,大脑开始外包啦,判断开始省略啦。
这才是真正值得警惕的事:我们慢慢失去了独立思考的能力。
咱们再回头看,那个退机票的网友。
很多人笑他蠢。
但我还想补充一点:
他只是比很多人,更早暴露出了未来的问题。
未来一定会有越来越多人:
相信AI超过相信常识。
依赖AI超过依赖自己。
把“它说得像真的”,误认为“它就是真的”。
未来越来越多人,会懒得验证。
因为AI太方便了。
而这,可能才是AI时代最大的风险。
所以AI到底该怎么用?
我觉得最正确的姿势其实很简单:
把它当一个特别聪明、效率特别高、知识特别广——
但会一本正经胡说八道的朋友。
你可以跟它聊思路,让它帮你整理信息,让它帮你打开脑洞,让它提高你的效率。
但只要涉及到——钱、合同、医疗、法律、重大人生决策——永远要找一个真正负责任的人来核实。
因为AI可以陪你聊天。
但它不用为你的后果负责。
“豆包"的欠条,以一种荒诞的方式,清清楚楚地,让我们看到了,这个时代一个越来越普遍的困境:
我们正在以一种前所未有的速度,把自己的判断权和决策权,拱手相让。
热门跟贴