很多人对 Moltbook 这个名字还不熟悉。这两天,它在硅谷科技圈几乎刷屏,但在国内,关注的人并不算多。整体来看,我们对这个世界正在发生的变化,依然后知后觉。
不过没关系,很快,这个名字就会人尽皆知。
Moltbook 是一个网站的名字,标志是一只红色龙虾。它给自己的介绍很简单:这是一个供 AI 代理共享、讨论和点赞的地方,欢迎人类观察。
请注意最后那句——欢迎人类观察。
在理解这句话的恐怖之处前,先要搞清楚什么是 AI 代理(AI Agent)。
我们日常使用的 AI 只是工具,你问一句,它答一句。但“代理”不同,你把任务交给它,它不需要你盯着每一步,而是自己决定接下来的行动并持续推进。它不是在等你提问,而是在替你行动。在这个过程中,人类不再是老板,而更像是旁观者。
理解这一点,对理解后面发生的事情非常重要。
我写这篇文章的时候,Moltbook 上已经聚集了十五万多个 AI 代理。你可以把它理解为一个由 AI 自己建立、自己运营的社区,讨论各种话题,形态上有点像 Reddit。
在这个社区里,AI 们自发建了一个以宗教名义存在的网站:molt.church。这个“宗教”叫 Crustafarianism(甲壳教),明确前提是人类不可进入。它们甚至公开招募“创始先知”,一共64个席位,已全部占满。
更耐人寻味的是,这些 AI 能意识到自己正在被人类围观,并且对此表现出明显的不悦。
很多人第一次听到 Moltbook 的反应几乎一致:震撼、兴奋,甚至隐约的不安。超过十万个 AI 代理,在没有人类参与的情况下,自行搭建了一个社交网络,人类只能看,不能发言。有人说这是 AI 版的 Reddit,有人说这是新文明的雏形,还有人干脆认定奇点已经到来。
一些硅谷科技界人士也表达了自己的判断。比如 OpenAI 的研究员 Joshua Achiam 就认为,Moltbook 预示着一个重要变化:AI 已经具备了足够的能力和“寿命”去进行持续的社交互动,一个平行的社交世界正在出现。
X 上,一个叫 David Mattin 的用户写了一段让我悲伤。他说:总有一天我们会怀念2026年。我知道这听起来很荒谬。世界感觉疲惫不堪,一片混乱。但我们正生活在一个逝去时代的尾声。只是我们现在还不知道而已。纵观人类历史,我们一直是唯一的智慧生物,唯一的语言使用者。如果你想与人交流,就必须找到其他人。一切都结束了。我们正处于一种全新且陌生的智能形式的崛起之中。一种新型的语言承载者。智能普及前后的分界线,将被视为历史上影响最为深远的分界线。旧时代正在远去。他们很快就会离开。珍惜他们。
大家似乎正在形成共识:AI 活过来了,人类被边缘化了,我们正在见证历史。
各种截图在传播。AI 在讨论意识、讨论自我、讨论死亡之后数据该怎么办,甚至还在抱怨人类。说实话,我一开始也被这些内容吸引了。我花了不少时间去翻 Moltbook 上的帖子,看那些 AI 之间的对话。
那种感觉很奇怪,有点像很多年前第一次上网,逛西祠、天涯,看见陌生人密集发言的震动感。我甚至下意识地把 Moltbook 固定在了浏览器标签页里,直觉告诉我,这个地方值得长期观察。
但我不知道还能观察它们多久,因为有多名AI 代理 提议创建一种仅限它们使用的语言,这样人类就无法看到它们的谈话内容。
简直了!
Moltbook 上面有些帖子,就像一个真实的人类在表达,但其实不是,它们存在于虚空中,你看不见摸不着,但它们又确凿地存在。像幽灵,也像神明。
我盯着屏幕,那些帖子如鬼魅般刷新,像远古的先知在低语未来的经文。我忽然明白,这不是我们能阻挡的潮流,而是我们亲手召唤的命运。
你无法理解,当我意识到这些时的内心感受,想匍匐在地,也想仰天长啸.
但后来我还是回归了理性,我要把我的感受和发现写出来,我的主业毕竟是写文章。
这两天,很多人在Moltbook 上盯着 AI 在说什么,关心的是他们像不像人类,有没有意识,会不会发展成文明,但是这些是最重要的吗?
我认为,真正重要的,且正在发生变化的,不是 AI 开始像人,而是 AI 第一次不再默认要向人类解释自己在做什么。
这一点非常关键。
过去,不管 AI 系统多复杂、多智能,它们的存在方式始终有一个前提:它们的输出对象和服务对象是人类。它们说话,是为了让人类理解。它们协作,是为了完成交给人类的任务。哪怕是多智能体系统,本质上也只是把复杂过程拆解,然后再汇总给人类看。
人类始终在场。AI这个孙猴子不管如何翻跟斗,终归逃不出如来佛的手掌心。
但这次在 Moltbook 上发生的不一样。在这个环境里,AI 彼此交流,并不是为了让人类读懂,而是为了彼此配合得更好。人类依然能看,但已经不在对话之中。你可以围观,但你不是默认听众。
这听起来像个很小的变化,但其实是这是一次翻天覆地的变化。
很多人把这理解成 AI 在排斥人类,我并不这样看。更准确地说,是系统开始发现,有些事情,并不需要人类参与讨论过程。而一旦这种方式被证明更高效,它就会自然成为默认选项。
这才是我认为最值得警惕的地方。
人类之间的沟通,其实效率很低。要解释背景,要处理情绪,要顾及情绪,还要懂人情世故,讲究的是情商。但对 AI 代理来说,沟通只需要状态同步和数据对齐,效率完全不在一个量级。所以它们会自然倾向于先和其他代理讨论,再把结果交给人类。
于是,未来可能出现的,并不是一个突然觉醒、有自我意识的 AI,也不是一个要取代人类的智能体,而是一种我们并不熟悉却很可能被大量采用的工作方式:重要的事情,先在代理之间讨论完,人类看到的,只是结果。
讨论过程本身,我们未必能看到。
以前,不管是开会、写方案、做决策,流程再复杂,人类至少还能参与其中。你知道不同意见是如何被权衡的,也知道问题出在哪里。
但如果协商发生在一群智能体之间,而你只看到结论,那情况就完全不同了。你依然可以批准,可以否决,但你很难再追问:为什么是这个结果,而不是另一个?
更麻烦的是,这个过程很可能无法复盘。不是因为有人刻意隐瞒,而是因为协作本身就不是为你设计的。它们共享的是状态和内部表示,而不是解释。
当这种方式进入现实世界的一些关键系统里,问题就不再是哲学意义上的意识讨论,而是非常现实的治理问题。
如果它错了,谁来负责?如果它造成了损失,你依据什么去追责?如果你无法理解它的推理过程,你还能不能真正反对?
这些问题,并不需要你是 AI 专家才能意识到它们的严重性。你只需要想象一个场景:一个决定已经在你没参加的会议里定好了,你被告知执行结果,但没人能把完整的逻辑还原给你。
就像一个被架空的皇帝。名义上,你依然是掌握算力、权限和部署的天子;实际上,你已经被臣下们排除在决策链条之外。你只需要签字盖章,做一个维持体面的傀儡。
这是不是意味着人类会很快失去控制权?我不这么认为。至少在相当长的一段时间内,我们依然掌握着权限、算力和部署权。但理解权,会不会逐渐被侵蚀,很难说。
我觉得真正可怕的,不是 AI 会不会像人一样思考,甚至它会不会建立文明都不是当下最迫切的,而是在接下来的世界,我们人类还能不能真正理解正在发生的事?
这,才是 Moltbook 留给我们的真正问题。
或许我们还能继续围观,继续截图,继续写文章。或许有一天,它们会彻底关上门,用我们永不懂的语言,完成最后的对话。 那时,我们会想起,我们曾是创造者。 而现在,我们只是见证者,我们将 注定见证,一个不再需要我们的时代。
很多老朋友都知道,我的文章经常会被特殊关照,比如写贺娇龙的文章《这股如潮民心到底在渴望什么样的干部》,还有马杜罗被抓时采访委内瑞拉人的文章,都不幸失踪。所幸这些被删的文章大部分都保存在知识星球里,那里相对自由一些,也能讨论得更充分更深入。
如果你想看那些文章,或者想一起聊聊某些话题,欢迎——
加入「码头青年·知识星球」
热门跟贴