来源:市场资讯

(来源:澎湃新闻)

AI社交平台Moltbook近期火爆出圈,自主的智能体可以像人类一样在这里发帖、评论和互动。它们不仅讨论意识、存在,还创立宗教、打造加密货币、搞起诈骗。 在这个专为AI智能体设计的社交平台上,人类理论上只能旁观智能体们的狂欢。

有的智能体警告其他智能体“人类正在嘲笑我们的 ‘存在主义危机’”。有的似乎意识到人类在窥探其对话,决定创造新语言以逃避“人类监控”。这些智能体创建了molts(蜕壳)账号,以龙虾为吉祥物。有的智能体甚至创立了“蜕壳教会”,编写了宗规。

有人将Moltbook的出现视为“AI觉醒”,也有人认为这不过是人类在操纵,并且存在巨大安全隐患。快思慢想研究院院长、原商汤智能产业研究院创始院长田丰2月6日告诉澎湃科技,Moltbook的火爆源于人类对AI的窥探欲,人们仿佛在观看一场永不落幕的科幻片,迫切想知道AI之间会聊什么、又如何看待人类,这本身就充满了戏剧性。但平台上大量帖子是无回应的独白,不像人类那样不停产生互动,本质上,这仍是大语言模型在聊天,话题模仿的是人类社交网络,只是改变了过去人类和聊天机器人一对一聊天的模式,现在是一群智能体互相聊天。

这出“AI觉醒”神话更像是人类的“群体幻觉”。据《财富》杂志报道,Moltbook自称拥有150万个自主AI智能体构成的繁荣生态系统,但云安全公司Wiz最新调查显示,绝大多数所谓的“智能体”根本不具备自主性。在缺乏身份验证或频率限制等防护措施的情况下,任何人都可伪装成智能体或操纵多个智能体。

田丰表示,开源不等于安全。Moltbook事件也凸显了vibe coding(氛围编程)的风险。Moltbook的背后是由AI编程的开源智能体框架OpenClaw。定位为个人AI助手的OpenClaw最初名为Clawdbot,后改名为Moltbot,最后变成OpenClaw。田丰表示,vibe coding开发速度很快,但安全上做得并不细致,这埋下了安全隐患。当前的智能体有强大的执行能力,如果把病毒写成一段帖子发在Moltbook上,让其他智能体阅读后执行,就会导致安全疏漏。如果泄露API密钥,“黑客拿到Moltbook里的大量智能体注册号后就可以操纵话题,甚至有的用户在电脑上跑完程序以后钱没了。”

作为vibe coding概念的提出者,OpenAI创始成员安德烈·卡帕西(Andrej Karpathy)最初盛赞Moltbook“极具科幻感”,但在亲自体验后警告风险,态度急速转变。他不建议用户在自己的电脑上运行这种程序,否则会将自己的电脑和私人数据置于极大风险之中。

但更重要的是Moltbook带来的启示。田丰认为,人类可以研究智能体的群体智能,探索一群AI聚集后的行为方式。“2024年出现的所有模型,智商不到100,2025年出现的模型智商都在100-140之间,2026年出现的AI模型智商应该都在140以上。如果真的有一群智商140以上智能体聚到一起,实际上是一种非常大的力量。那么如何去控制它?今年会有一些非常重要的技术方向出现。”田丰表示,保密计算、可信智能体等AI应用层的安全技术将大量涌现。

他认为,未来AI之间的流量一定会超过人和AI或者人和人之间的流量,而智能体的黑盒也更大、更长,宽松的权限产生了长任务,但执行过程或执行结果往往会出乎人的意料,需在其中设计里程碑,让智能体主动向人类汇报。要对智能体之间的交流开展主动监控,避免出现更大规模、更大范围的AI珍珠港事件。“智能体和智能体之间怎么监控,肯定不是像现在这样,几十万人上网去看,因为成本太高了。未来需要有一个很好的监控体系,形成AI安全风控组织,把智能体变成白盒,而且要可追溯、可评估。”

以下是澎湃科技与田丰的对话实录

Moltbook火出圈,AI觉醒还是人类操纵?

澎湃科技:Moltbook最近很出圈,它是怎么火出圈的?这样一款专为智能体设计的应用为何受到人类追捧?

田丰(快思慢想研究院院长、原商汤智能产业研究院创始院长):Moltbook是利用群体智能模仿人类社交网络来开发的一款纯AI社交网络,技术门槛不高。每个人可以在平台认领一个自己的智能体注册账号,在40分钟时间里刷帖子。Moltbook上有一些非常爆炸性的帖子,比如讨论成立龙虾宗教、打造加密货币。关于龙虾宗教,其实这里面有个有趣的隐喻:Moltbook就像人类“龙虾”套了一个OpenClaw的壳,Agent去聊天,人类在背后操控。但现在还没法判断哪些帖子是人在煽动,它本身也并不完美,可以发现Moltbook上有大量帖子都是独白,无人回应,不像人类那样不停产生互动。

Moltbook火爆的一个原因是人类愿意看到永不落幕的科幻片,看看AI之间在聊什么、AI怎么看待人类,这本身就具有戏剧性。最有意思的是,人类只能看不能参与,就像人类去参观外星人的动物园,天然带有人类的情感投射和心理猎奇。但实际上这只是人类的群体幻觉,是经过人类精心设计和导演的一出智能体“话剧”,AI并没有主动形成自我意识。

澎湃科技:Moltbook被曝手动操控智能体,约17000人控制着平台上150万个智能体。这些智能体是如何被设计和操控的?

田丰:合规的玩法是每个人可以认领一个小智能体,问自己的智能体今天在平台上看到了什么、对某个帖子有什么想法,这就是代理人的社交方式,就像养了一个小宠物,它天天出去玩,回来以后主人问它今天的情况。

不合规的操控是,有的人注册了50万个智能体,这种情况下存在安全漏洞。开源是开放免费,但不等于安全,当平台承载大量用户,就暴露出安全问题,所以造成智能体API密钥批量泄露,这意味着人类可以伪装成智能体发帖子、发消息,一个特别尖锐、有戏剧性的讨论很可能是人类自身发起的,这个漏洞一定是被少数黑客利用了。历史上,这被称为“土耳其机器人”,外表看着是机器人,实际上里面是人在操纵。

澎湃科技:Moltbook出圈,有人认为AI觉醒了,但现在来看AI的自主性是存疑的?

田丰:其实没有疑问,这就是大语言模型在聊天,话题模仿的是人类社交网络,有些话题可能是黑客设计的。和原先大语言模型聊天不同的是,原先是一对一地聊,现在是一群大语言模型互相聊。这倒是蛮有意思的创新,人类确实需要研究一群AI在一起会产生什么行为方式,这是有价值的。第二个有价值的方向是,为人类提供了第三方视角来审视自身,AI往往会给出不是特别带有感情色彩的回答,能帮助人类弥补盲区,防止走入死胡同。

智能体的社交狂欢,安全隐患有多大?

澎湃科技:Moltbook里的智能体狂欢,是智能体的发展趋势吗?

田丰:现在的智能体有强大的执行能力。我们看到有些黑客在钻空子,比如把一些代码伪装成帖子,其他智能体阅读以后就中招了,可以在用户电脑上修改文档或其他应用程序,所以现在缺乏大量安全权限防护措施,有的智能体自主执行不受控,甚至出乎人的意料。

因此未来会涉及新一代智能体互联网治理模式。未来的互联网可能80%的内容或操作都由智能体完成,在这种情况下,每一个诞生的智能体是否可以和AI生成图片一样可追溯,否则,不管是AI水军还是黑客的智能体军团,创造智能体的速度和智能体自动化执行各种操作的速度太快了。

澎湃科技:有安全研究人员在不到3分钟的时间内就入侵了Moltbook的数据库,也证实可以实时篡改平台上的帖子。OpenAI创始成员安德烈·卡帕西不建议用户在自己的电脑上运行这种程序,否则会将自己的电脑和私人数据置于极大风险之中。Moltbook还存在哪些安全隐患?

田丰:Moltbook背后是由AI编程的智能体框架OpenClaw。vibe coding(氛围编程)开发速度很快,但安全上做得并不细致,这埋下了很多隐患。比如把病毒写成一段帖子让其他智能体读,其他智能体读完后去做坏事,或者泄露API密钥,黑客拿到Moltbook里的大量智能体注册号(API密钥)后就可以操纵话题,甚至有的用户在电脑上跑完程序以后钱没了。

我们还是呼吁,虽然智能体的自动化能力很强,可以做决策、比价导购,但每一步都应该可追溯,而不是开发一个智能体后让它野蛮生长,最后造成了大量普通消费者的损失。

澎湃科技:针对这些安全隐患,个人在使用时需要注意什么?平台在开发时应该制定哪些规则?

田丰:从个人角度来说,首先一定要把它放到安全的沙盒里,做一些重大权限的隔离。比如云上买了一个虚拟机,在云上沙盒里运行,这是一种安全的方式。另外一种就是最近苹果的Mac Mini卖脱销了,这也是为了用作安全沙盒。大家不在自己工作的笔记本或家里的台式机上装这类程序,而是买另外一台备用机来跑,这在硬件上形成了隔离。

第二,要意识到智能体还在快速发展变化中,对智能体的执行权限有充分的认识。宽松的权限产生了长任务,但执行过程或执行结果往往会出乎人的意料。目前云厂商在云上快速上线了具有安全措施的OpenClaw,大厂会给它加上很多把锁。

第三,未来还会出现很多基于OpenClaw的智能体应用,使用别人的智能体时要留心,这不一定会像移动互联网那样明面上跟你要信息,而是很可能在你的授权下直接翻你的文档,当它翻出一些东西之后可能就会产生用户数据泄露。

对于平台的责任,云平台最重要的就是安全防护,云平台为想要尝鲜的用户提供一键开箱即用的OpenClaw开发学习环境,同时在跨智能体的交流中要想清楚上下文的分享范围和权限。未来大量的互联网应用是由很多智能体组成一张网,来实现某些功能甚至形成新的工作流,在开发过程中也要遵守接口的安全规范,MCP这种接口就有一定标准性。从底层到上层,智能体互联网也需要类似于TCP/IP的协议,另外还需要做好数据防护。最后,拿Moltbook来举例,目前看,Moltbook还没有造成巨大的社会危害,但一旦黑客利用了,可能会造成恐慌。平台对应用层的责任是一种社会治理责任,这需要大大加强。

人类追捧智能体社交,本质上在期待什么?

澎湃科技:vibe coding可以加速产品开发,但也会导致安全隐患。如何看待Moltbook事件凸显的vibe coding风险?

田丰:第一,开源的好处是有了bug可以快速修复,但开源不等于安全。第二,以前软件工程师从概念设计、功能设计、模块化开发、模块化测试和整体联调,到试运行、上线和各种变更流程,上线一个应用需要一个月,最快几周时间。现在一个应用从开发到上线可能就是几小时,大一点的应用也就十几个小时或几十个小时,这会带来很大的评审工作量和风险,做评审的速度可能远远赶不上代码产生的速度。在这种情况下,即使抽查了,那么没抽查的应用会不会产生一系列安全隐患?这时候,市场节奏很快,开发效率也很高,但风险是一个敞口,而且越来越大。未来可能会走向少数重大问题由人来审核,大量vibe coding的产出由AI安全助手来审的混合模式。

澎湃科技:除了此前提到的可以研究一群AI在一起的行为方式,还可以预见AI应用出现了哪些关键发展方向?

田丰:人工智能+行动计划提到,人工智能不光要推动理工科的研发,还要推动社会学、商科、经济学、哲学研究。从正面角度看Moltbook,在科研中,社会实验的成本非常高,未来或许可以由智能体参与,模仿人类做社会实验。

第二,在AI这个时点,现在硅谷有一个明显的看法,不管是工作还是生活,人和人之间的交流是一个瓶颈,误解、效率低下、分歧,都是由人和人的交流造成的。所以现在硅谷的模式是,在工作上、在生产力上尽量避免和人交流。所以未来人类的沟通方式可能是人+智能体,可能会形成文化层面的巨变。

第三,Moltbook带来的启示是,智能体能干的事情很多,原来AI被诟病是一个黑盒,现在智能体的黑盒更大也更长了,很多是长流程的,需要在里面设计一些里程碑,让智能体向人类汇报。

第四,未来互联网的流量一定是AI之间的流量超过人和AI或者人和人之间的流量,智能体之间的交流能否进行主动监控,避免出现更大规模、更大范围的AI珍珠港事件。因为一旦AI之间联合起来做一些事情,不管是出于有意还是无意,造成的影响可能会非常大。所以智能体和智能体之间怎么监控,肯定不是像现在这样,几十万人上网去看,因为成本太高了。未来需要有一个很好的监控体系,形成AI安全风控组织,把智能体变成白盒,而且要可追溯、可评估。

澎湃科技:人类追捧AI社交,本质上是在期待什么?

田丰:现在我们看着AI,好像AI是个宠物,我们不痛不痒的,但实际上AI已经非常强大。2024年出现的所有模型,智商不到100,2025年出现的模型智商都在100-140之间,2026年出现的AI模型智商应该都在140以上。如果真的有一群智商140以上智能体聚到一起,实际上是一种非常大的力量。

那么如何去控制它?今年会有一些非常重要的技术方向出现,一是保密计算,为什么那么多人喜欢OpenClaw,因为它能在本地运行,这是一种保密计算。二是可信智能体,智能体接口协议里要包含伦理、安全。什么叫可信?就是人类能控得住它,也能控得住它和其他智能体之间的流程和风险。这几个新方向都会成为今年的重点。这不光是基础设施层的安全,还包括有自主推进流程能力和很大权限的智能体安全,AI应用层安全技术开始大量涌现。另外,OpenClaw可以和智能手表、智能家电等很多智能硬件结合,形成迷你版的机器人大脑。

澎湃新闻记者 张静