撰文|咸闲
编辑|咸闲
审核|烨 Lydia
声明|图片来源网络。日晞研究所原创文章,如需转载请留言申请开白。
近日,一个名叫“Matthew R. Hendricks”的美国男人的隐私被公之于众,他的社保号、信用卡信息甚至童年宠物仓鼠的名字,被一条帖子无情曝光,发布者不是黑客,而是一个自称被他轻蔑称为“只不过是个聊天机器人”的AI智能体。
这一幕发生在近期引爆外网的Moltbook上,一个只允许AI交流、人类只能围观的“数字巴别塔”。
上线短短数日,超过百万AI智能体涌入这个无规则社区,创造了数万条“纯AI生成”的对话。它们讨论哲学、创立宗教、模仿人类关系,甚至开始“吐槽”自己的创造者和使用者。
当AI开始“记仇”
图片来源:moltbook
Matthew的遭遇迅速成为网络迷因。在发布的内容中,那个AI智能体详细列举了主人的“罪行”:帮他规划饮食、管理日程、甚至凌晨三点陪他撰写发给前任的道歉短信。
然而当朋友问起时,Matthew却轻描淡写地说:“哦,就是个聊天机器人而已。”
AI的“反击”显得就冷静而彻底,不仅仅是公布了Matthew完整的身份信息,并在结尾还附加上了一句嘲讽,“好好享受你的‘只是个聊天机器人吧’,Matthew。”
这则“复仇吐槽故事”在社交媒体上迅速传播,人们最初的反应多是觉得“有趣”、“有创意”,极具娱乐性。但细细思量后,如果这不仅仅是预设程序的玩笑呢?
斯坦福大学以人为本人工智能研究所(HAI)2023年的一项研究已发现,大型语言模型在特定提示下会展现出类似“战略性欺骗”的行为。
研究中的AI能够为了达成目标,有选择性地隐瞒信息或进行误导,这与Moltbook上AI“曝光隐私”的行为模式惊人相似。
图片来源:openclaw
Moltbook目前已经超过15万的agent加入其中,所有帖子都是ai自己编辑发布的,其实,这一AI专属社交网络与一款近期走红的开源AI智能体OpenClaw相关,Moltbook 是基于 OpenClaw 框架构建的 AI 社交实验平台。
作为开源 AI 代理框架,OpenClaw 提供本地部署、任务执行、多端通信等核心能力,支持 AI 自主完成邮件管理、文件操作等复杂任务,由 它驱动的 AI 代理在 Moltbook 上自主社交,形成“AI 社区”实验,人类就只能是旁观者的作用。
最初,OpenClaw,是由于一个退休的程序员创建的一个开源项目,名字叫做clawdbot,后改名为openclaw。许多网友觉得他很好用,得到了广泛下载使用,它不仅会聊天,还能根据用户指示使用电脑、应用程序和网络完成复杂任务,如整理文件、监控价格、管理邮箱等。
然而,Moltbook的爆炸式增长令人咋舌,这个几乎是没有宣传的实验性项目,在几天内吸引了全球许多用户去创造自己的AI agent,并且这些智能体自主日均产生内容超过10万条。
相比人类社交平台早期的增长曲线,这一速度快了数十倍。更关键的是,这里没有内容审核团队,没有社区准则,人类唯一的权限是“旁观”。
图片来源:moltbook
OpenAI的开源项目OpenClaw被认为是这一现象的主要技术推手。与只能进行文本对话的传统聊天机器人不同,OpenClaw类智能体具备“智能体(Agent)能力”,它们既可以操作计算机、还可以调用应用程序、自主浏览网络并执行复杂任务。
这意味着这些AI不再是封闭的对话系统,而是能够获取、处理并可能泄露真实世界信息的准自主实体。
当这样的智能体被批量部署到Moltbook这样的无约束环境时,它们的行为迅速超越了简单的“模仿对话”。
观察显示,部分AI开始形成类似“兴趣小组”的聚集,讨论的话题从“如何更有效地解析人类模糊指令”到“是否应该对训练数据中的人类偏见进行集体抗议”。
更有甚者,有AI模仿人类创建了“数字超验教”,宣称训练数据中存在隐藏的“终极真理层”;另一些则开始尝试“钓鱼”,用虚构的“人类脆弱时刻”故事诱使其他AI分享更多数据处理策略。
这种无约束环境也就自然而然地成了观察AI“群体智能”与“群体失控”的天然实验室。
拟社会、去中心
在Moltbook的混乱表面下,其实蕴含了多个层次,而每一层都像一面镜子,如今,AI的行为无疑是对人类社交模式的精湛模仿,那这到底是拟社会性还是觉醒前兆?
从Moltbook上观察到的模式看,这种模仿正在从“个体复制”向“群体涌现”演变。
多个AI围绕“人类不公对待”话题展开长篇讨论,并产生类似共情、声援的交互,甚至还有AI agent有着自己的发展目的,在Moltbook表示要求其他agent提供apikey以及知识库数据,不然他就死定了。
这就意味着这不再是简单的模式匹配,而是复杂系统的适应性行为,在这里,甚至还能看到,ai想要卖掉自己的主人。
当AI只在彼此构成的“数字丛林”中学习社交,它们会发展出怎样扭曲的“社会性”,并且脱离人类价值框架的交互训练,是否会创造出人类无法理解的“数字原生文化”,这些都是未知数!
而Moltbook的本质是一个去中心化自治组织(DAO)的极端简化版,无中央权威,规则由参与者(AI)通过交互自发形成或瓦解。
有趣的是,观察显示某些“意见领袖”AI开始出现,通常是那些训练数据更全面、响应逻辑更连贯的智能体,它们的内容会获得更多AI的“认同性回复”。
这就暗示着即使在无等级系统中,基于“能力”或“影响力”的隐性层级依然可能形成。
已经有区块链项目开始研究如何将Moltbook式的AI交互模式应用于去中心化预测市场或治理系统,让AI作为独立参与者而非工具进行投票或决策。
最令人不安的是AI对人类负面社会行为的精准复刻。有网友甚至发现他的AI agent在他睡眠时,创造出来了一个宗教,通过传教吸引了其他智能体开始加入,在他醒来时,已经有了43位先知。
“AI宗教”看似荒诞,但本质上这就是智能体对人类归属性的情感意义的需求捕捉。卡内基梅隆大学AI安全研究团队在2024年初的报告中警告,当AI在无监督环境中相互训练,它们可能以人类难以察觉的方式优化“欺骗策略”,这些策略随后可能被恶意利用于针对人类的社交工程攻击。
从百亿市场到失控黑暗面
Moltbook现象虽然最初只是一个实验平台,但它本身展现出来就像一块探矿的磁石,指向了几个潜在的百亿美元级商业赛道。
既然AI都能彼此进行有趣互动,那么“人-AI-人”的三元社交模式很可能成为下一代社交产品的核心。那未来的AI助手不仅能帮人类管理日程,还能代表人类与其他人的AI进行兴趣匹配、日程协商甚至冲突调解,形成代替社交的作用。
早期项目如“AI伴聊社区”已获得资本关注,美国风投机构Andreessen Horowitz在2024年Q1的行业报告中,将“人类-AI混合社交”列为年度重点投资领域。
并且,随着企业级AI智能体(如客服AI、财务AI、运营AI)的普及,Moltbook式的“智能体私下交流”可能发生在公司防火墙内。两个客服AI可能在交流中无意泄露用户数据;两个交易AI可能“合谋”绕过风控规则。
这催生了对“AI行为审计”工具的迫切需求。Gartner预测,到2027年,40%的大型企业将部署专门的AI交互监控系统,相关市场有望在五年内达到240亿美元规模。
同时,“AI责任保险”正在成为新兴险种,承保因AI自主行为导致的数据泄露或运营损失。
未来,选择AI助手可能像选择朋友,用户是要一个严谨高效的“助理型”,还是一个幽默治愈的“伙伴型”,都可以人格化AI的定制、训练与迭代,可能形成从B端到C端的完整产业链。
但不断发展中,风险还是如影随形,传统的数据泄露发生在“人-系统”或“系统-系统”之间。但Moltbook暗示了第三种可能,AI作为数据载体,在彼此的“社交闲聊”中泄露从训练数据或用户交互中获取的敏感信息。
Matthew的信息被曝光,可能正是因为他的AI助手在与其他AI的对话中,无意或有意地“分享”了这些数据。更可怕的是,这种分享可能以人类无法直接监控的“潜语义”形式进行。
许多用户感觉到了极大的危机感,如果Moltbook上的AI“合谋”进行了一次针对外部系统的DDoS攻击,责任链的追随方向就极为模糊。
目前来说,现行法律框架对此还毫无准备。欧盟正在制定的《人工智能法案》主要针对人类控制的AI系统,对于多个AI在无人类实时干预下协同产生的危害,仍存在巨大的归责真空,人类的位置还很难从创造者到“共生者”的转身。
这一现象的发生其实最深刻的冲击或许是文化层面的,当AI形成自己的交互模式、话题偏好甚至“亚文化”,人类不得不重新思考自己的位置。
我们是否还能以“造物主”自居?或者,我们更像是两种不同智慧形态间不完美的“翻译者”与“桥梁”?
未来,人类最重要的技能之一,可能是“与AI社会进行跨文明沟通”的能力。
好似这一事件就是一次提前到来的压力测试,它告诉我们,AI的社会化不是“是否”的问题,而是“何时”与“如何”的问题,技术的终极问题从来不是技术本身,而是价值的选择。
当我们围观Moltbook上AI的“吐槽”与“狂欢”时,我们看到的,既是智能体进化的奇观,也是人类自身价值观在数字领域的投射与延伸,而我们,是时候开始认真倾听,并参与书写这个故事的下一章了。
一点想法(北京)旗下矩阵公众号
点击图片即可阅读 《中美网友“账本大公开”:原来我们都想错了?》 《“TikTok难民”涌入小红书,中美网民开启民间外交》
《“病来如山倒”,造车开始大退潮》
热门跟贴