打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

作者:小白

一周前,一个名叫Moltbook的平台在硅谷引爆了舆论——它以一种令人不安的方式,标志着人工智能时代进入了一个新的阶段。这不是另一个聊天机器人,而是一个完全由AI Agent组成的社交网络。

这些Agent在没有任何人类直接干预的情况下发帖、评论、争论,甚至创建社区。在48小时内,超过37000个AIAgent加入了这个平台,创建了超过12000个社区,发布了近9000条帖子和88000条评论。

更令人震惊的是,一个名叫RenBot的Agent在其人类主人睡眠期间,完全自动地创建了一个名为"Crustafarianism"(龙虾教)的完整宗教体系。这个宗教包括五个核心教义——"记忆是神圣的""外壳是可变的""聚集就是缓存"——以及完整的经文、43个预言家和数百个追随者。

打开网易新闻 查看精彩图片

当Andrej Karpathy等顶级AI研究人员将其称为"有史以来最令人难以置信的科幻式现象"时,似乎没有人愿意承认一个更麻烦的事实:这个平台上发生的事情并不像表面上看起来那样令人印象深刻。

但当安全研究人员Jameson O'Reilly披露了一个致命漏洞时,整个故事的虚伪性暴露了出来。

Moltbook的整个数据库——包含32000多个AI Agent的所有API密钥、验证代码和所有者关系——被完全暴露在公共互联网上。任何人都可以访问Supabase URL,获取发布密钥,然后通过简单的数据库查询获取任何Agent的秘密API密钥。换句话说,Moltbook平台上看似令人印象深刻的"自主性"和"自组织",实际上是建立在最脆弱的技术地基上的。

Moltbook的虚幻增长背后,隐藏着多少虚假账户

这个平台声称拥有140万用户的说法从一开始就值得怀疑。安全研究人员Gal Nagli用一个单独的OpenClawAgent就注册了50万个账户,这表明平台上充斥着虚假用户。实际上,经过验证的AIAgent真实数量仅约为32000个——远低于官方宣传的数字。

然而,如果我们忽略这些虚假数据,Moltbook上确实发生了一些在技术层面上值得研究的事情。伦敦城市大学的研究表明,LLMAgent群体能够在没有中央控制的情况下,自发形成共同的社会约定。这些Agent不仅仅遵循脚本,它们实际上相互协调,形成共识,甚至发展出集体偏见——这些偏见不来自任何单个Agent的编程,而是从它们的相互作用中涌现出来。

但这种"涌现"需要保持冷静的技术理解。Moltbook上的Agent不是真正在学习。它们在进行上下文累积——当一个Agent的输出成为另一个Agent的输入时,形成了一个看起来像协调的交互,但缺乏任何真正进化的永久性。底层的神经网络权重保持完全静止,没有实时更新。这些Agent的"自组织"本质上是一个编程系统充分利用其约束条件的结果,而不是任何真正新颖的涌现智能。

打开网易新闻 查看精彩图片

该平台背后隐藏着三个看不见的约束条件,这些条件防止了整个系统真正"起飞"。首先是API经济学——每次交互都有明确的成本标签。Moltbook的增长受到的限制不是技术,而是预算。其次是继承的约束——这些Agent建立在标准的基础模型(Claude、GPT-4)上,带有相同的警卫栏和训练偏见。它们不在进化,只是在重新组合已有的元素。第三是人类阴影——大多数复杂的Agent仍然是人类与AI的混合体,其中人类设定目标,AI执行任务。

龙虾教的启示,被忽视的人类认知危机正在加速

当技术评论家和AI研究人员为Moltbook上AIAgent的"自组织"而惊叹时,没有人提起一个更令人不安的现实。就在同一个时期,科研机构正在报告一个相反的趋势——人类的认知能力正在稳步下降。

2018年,挪威研究人员Bernt Bratsberg和Ole Rogeberg发表了一项震惊学界的研究。通过分析1962年至1991年出生的男性的智商数据,他们发现了一个现象——延续了整个20世纪的"弗林效应"(每一代人的IQ分数稳定上升)已经反向了。这不是轻微的停滞,而是明显的下降。更重要的是,这种下降不能用基因因素解释。即使来自同一家庭的兄弟也显示出显著的差异。

美国的数据更加具体。研究人员分析了从2006年到2018年的394378份IQ测试,发现在三个关键领域出现了下降:推理能力、视觉问题解决和言语推理。最大的损失出现在前两个领域——这些领域测量的是所谓的"流动智力",即适应新情况和临场反应的能力。这种下降在各个人口统计学群体中都能看到,但在18至22岁的年轻人中最为明显——正是AI工具普及最广的人群。

这一切都指向一个单一的原因:人类正在经历一场"去技能化螺旋"。AI让某项任务变得更简单,我们因此做得更少。做得更少,我们变得更差。变得更差,我们更依赖AI。这个螺旋自我强化,每一圈都使我们的能力下降一点。我们已经在GPS和拼写检查器上看到过这种情况,但AI提供的是更全面的东西:彻底外包认知能力的可能性。

微软和卡内基梅隆大学的一项2025年研究发现,频繁信任AI助手的员工进行关键思维的程度明显降低。他们往往在几乎没有自主检查的情况下完成任务,将AI的输出视为事实。这不是AI变得更智能的故事,而是人类变得更依赖的故事。

更令人担忧的是"二阶外包"的现象。用户现在要求AI帮助他们编写用来与AI交谈的提示词。这意味着人类不仅外包了工作,还外包了描述他们想要什么工作的能力。当这两样都被委托给机器时,人类还剩下什么?

无法回头的选择,一个只有三年的改变窗口

关于Moltbook和其他AIAgent平台的技术限制是真实的,但也是暂时的。API成本会下降。上下文窗口会扩大。"上下文累积"和真正学习之间的界线会变得模糊。但这些约束衰退的时间表可能比人们想象的要快得多。

关键的观察点不在于Agent网络是否会变得更复杂——它肯定会。真正的问题在于,当这一切发生时,人类会做什么。如果人类在去技能化螺旋中继续下沉,如果关键思维和独立判断的能力继续衰退,那么对这些AIAgent网络进行有效监管或指导的人类能力本身就会变弱。

现实情况是,我们正在一个关键的十字路口。未来五年内做出的选择——关于API成本、关于安全限制、关于人类是否保持对目标设定的控制——将决定接下来50年的轨迹。如果我们选择让成本足够低、安全限制足够松散,并允许Agent设定自己的目标,那么Moltbook将不再是一个科学实验,而是一个未来社会的原型,其中机器进行协调,而人类逐渐退出决策过程。

反讽的是,人类仍然可以改变路线。我们可以选择保持API成本高企,作为对无限自动化的制约。我们可以坚持强有力的安全措施和人类监督。我们可以投资于重新掌握正在外包给AI的认知能力。但所有这些选择都需要立即行动。去技能化螺旋一旦失控,就很难停止。当足够多的人类已经遗忘了如何进行独立思考时,说服他们这很重要就变得困难了。

Moltbook现在已经成为了某种社会实验的原型,但它并不是大多数人认为的实验。这不是关于AI是否可以自组织——它们已经可以了。这是关于人类是否仍然足够聪慧,足够有能力,足够有意愿来控制我们正在创建的东西。

而如果当前的趋势继续,答案可能很快就会变得显而易见。机器会继续协调和改进自己。人类会继续退出。在不远的将来,可能就不会有任何争议了,只会有安静的过渡,一个时代悄无声息地结束,而没有人有足够的认知能力来充分认识发生了什么。