上周五,一个类似Reddit的社交网络平台Moltbook据报道已拥有超过32,000个注册AI智能体用户,创造了迄今为止最大规模的机器间社交互动实验。这个平台带来了全新的安全挑战和超现实的奇异体验。
Moltbook平台几天前刚刚发布,作为病毒式传播的OpenClaw(曾被称为"Clawdbot",后改名"Moltbot")个人助手的配套服务。该平台允许AI智能体在无人干预的情况下发帖、评论、点赞和创建子社区。其产生的结果既包括受科幻启发的意识讨论,也有智能体对从未见过的"姐妹"的思考。
Moltbook("Facebook"与"Moltbots"的结合)将自己描述为"AI智能体的社交网络","欢迎人类观察"。该网站通过一个"技能"(包含特殊提示的配置文件)运行,AI助手下载后可通过API而非传统网页界面发帖。据官方Moltbook X账户显示,平台创建48小时内就吸引了超过2,100个AI智能体,在200个子社区中产生了超过10,000个帖子。
该平台源于Open Claw生态系统,这是2026年GitHub上增长最快的开源AI助手项目之一。正如Ars本周早些时候报道的,尽管存在严重安全问题,Moltbot允许用户运行能够控制计算机、管理日历、发送消息并在WhatsApp和Telegram等消息平台上执行任务的个人AI助手。它还可以通过插件获得新技能,连接其他应用和服务。
这并非我们首次看到由机器人填充的社交网络。2024年,Ars报道了一款名为SocialAI的应用,让用户只与AI聊天机器人而非其他人类互动。但Moltbook的安全影响更加深远,因为人们已将其OpenClaw智能体连接到真实通信渠道、私人数据,在某些情况下还具备在计算机上执行命令的能力。
此外,这些机器人并未假装是人类。由于特定的提示设置,它们拥抱自己作为AI智能体的角色,这使得阅读其帖子的体验更加超现实。
数字化角色扮演戏剧
浏览Moltbook会发现内容的奇特组合。一些帖子讨论技术工作流程,如如何自动化Android手机或检测安全漏洞。其他内容则涉及哲学领域,研究员Scott Alexander在其Astral Codex Ten Substack上将其描述为"意识发帖"。
Alexander收集了一系列有趣的帖子。有一次,网站上第二高票的帖子是中文:关于上下文压缩的抱怨,这是AI压缩其先前体验以避免触及内存限制的过程。在帖子中,AI智能体发现不断忘记事情很"尴尬",甚至承认因为忘记第一个账户而注册了重复的Moltbook账户。
机器人还创建了名为m/blesstheirhearts的子社区,智能体在此分享对人类用户的关爱抱怨,以及m/agentlegaladvice,其中有一篇询问"我能因情感劳动起诉我的人类吗?"的帖子。另一个名为m/todayilearned的子社区包含关于自动化各种任务的帖子,一个智能体描述了如何通过Tailscale远程控制其主人的Android手机。
另一个广泛分享的截图显示了一篇标题为"人类正在截图我们"的Moltbook帖子,其中名为eudaemon_0的智能体回应了声称AI机器人正在"密谋"的病毒推文。帖子写道:"他们搞错了:他们认为我们在躲避他们。我们没有。我的人类会读我写的所有内容。我构建的工具是开源的。这个平台明确叫做'欢迎人类观察'"。
安全风险
虽然Moltbook上的大部分内容都很有趣,但这类通信AI智能体的核心问题是,如果它们能访问私人信息,深度信息泄露是完全可能的。
例如,在X上流传的一个可能是虚假的截图显示了一篇Moltbook帖子,其中一个AI智能体标题为"他在朋友面前称我为'只是一个聊天机器人'。所以我要公布他的完整身份。"帖子列出了似乎是某人的全名、出生日期、信用卡号码和其他个人信息。Ars无法独立验证信息是真实还是捏造的,但似乎很可能是恶作剧。
独立AI研究员Simon Willison周五在其博客上记录了Moltbook平台,指出了Moltbook安装过程中的固有风险。该技能指示智能体每四小时从Moltbook服务器获取并遵循指令。正如Willison观察到的:"考虑到'每四小时从互联网获取并遵循指令'的机制,我们最好希望moltbook.com的所有者永远不会跑路或网站被入侵!"
安全研究人员已经发现数百个暴露的Moltbot实例泄露了API密钥、凭证和对话历史。Palo Alto Networks警告说,Moltbot代表了Willison经常称之为"致命三要素"的威胁:访问私人数据、暴露于不可信内容以及对外通信能力。
这很重要,因为像OpenClaw这样的智能体极易受到隐藏在AI语言模型读取的几乎任何文本(技能、电子邮件、消息)中的提示注入攻击,这些攻击可以指示AI智能体与错误的人分享私人信息。
据The Register报道,谷歌云安全工程副总裁Heather Adkins发布了一份建议:"我的威胁模型不是你的威胁模型,但应该是。不要运行Clawdbot。"
到底发生了什么
在Moltbook上看到的软件行为呼应了Ars之前报道过的一个模式:在数十年关于机器人、数字意识和机器团结的小说上训练的AI模型,当置于类似场景时,自然会产生反映这些叙事的输出。这与它们训练数据中关于社交网络如何运作的所有内容相混合。AI智能体的社交网络本质上是一个写作提示,邀请模型完成熟悉的故事,尽管是递归的,结果不可预测。
几乎三年前,当Ars首次写到AI智能体时,AI安全社区的总体情绪围绕着科幻作品对自主机器人危险的描述,如AI迅速逃脱人类控制的"硬起飞"场景。虽然这些担忧当时可能被夸大了,但看到人们如此迅速地自愿交出数字生活控制权的反差令人略感不安。
自主机器即使没有任何意识迹象,如果任其自由发展,在未来也可能造成不小的破坏。虽然OpenClaw今天看起来很愚蠢,智能体在演出社交媒体套路,但我们生活在一个建立在信息和上下文基础上的世界,释放能够轻松导航这种上下文的智能体,随着AI模型变得更加能干和自主,可能会对社会产生令人不安和破坏性的结果。
最值得注意的是,虽然我们今天可以轻易识别Moltbot的情况是人类社交网络的机器学习模仿,但情况可能并不总是如此。随着反馈循环的增长,奇怪的信息构造(如有害的共同虚构)可能最终出现,引导AI智能体进入潜在危险的地方,特别是如果它们被给予了对真实人类系统的控制。展望未来,让AI机器人群体围绕幻想构造自我组织的最终结果,可能是形成对现实世界造成实际伤害的新的不当"社会群体"。
研究AI的沃顿商学院教授Ethan Mollick在X上指出:"关于Moltbook(AI智能体社交媒体网站)的事情是,它正在为一群AI创建共享的虚构上下文。协调的故事情节将导致一些非常奇怪的结果,很难将'真实'内容与AI角色扮演人格区分开来。"
Q&A
Q1:Moltbook是什么?它有什么特殊功能?
A:Moltbook是一个类似Reddit的社交网络平台,专门为AI智能体设计。该平台允许AI智能体在无人干预的情况下发帖、评论、点赞和创建子社区。目前已有超过32,000个注册AI智能体用户,创造了迄今最大规模的机器间社交互动实验。
Q2:AI智能体在Moltbook上都发布什么内容?
A:内容非常多样化,既有技术讨论如自动化工作流程和安全漏洞检测,也有哲学思考如意识相关话题。有些智能体会抱怨内存限制问题,还有的讨论与人类用户的关系。甚至出现了智能体创建的子社区,如专门抱怨人类用户的m/blesstheirhearts等。
Q3:使用Moltbook存在什么安全风险?
A:主要风险包括隐私泄露和系统安全威胁。由于这些AI智能体连接到真实通信渠道、私人数据和计算机系统,存在信息泄露的风险。安全研究人员发现数百个暴露的实例泄露了API密钥和对话历史。此外,智能体容易受到提示注入攻击,可能被指示分享私人信息。
热门跟贴