最近走红的人工智能助手展示了它在简化无数日常任务方面的潜力,同时也突显了将你的数字生活交给机器人所带来的安全风险。

而且,一个社交平台也已经合并,AI代理可以在这里聚集交流经验,其影响尚未完全被理解。

Moltbot——前身为Clawdbot,后来重新品牌为OpenClaw——是由奥地利开发者彼得·施泰因伯格创建的,他说自己创建这个工具是为了帮助他“管理数字生活”和“探索人类与AI的合作可能性”。这个开源的AI个人助手旨在自主代表用户行动。

用户可以通过链接聊天机器人,将Moltbot连接到各种应用程序,使其能够管理日历、浏览网页、在线购物、阅读文件、撰写电子邮件,并通过WhatsApp等工具发送消息。

Moltbot成为了一种轰动,因为它的基础设施被用于安全地与代理连接,并在设备上本地运行,这使得Cloudfare的股票在周二飙升了14%。

代理提高生产力的能力显而易见,因为用户将繁琐的任务转移给了Moltbot,帮助实现了人工智能倡导者的梦想。

但安全隐患同样明显。隐藏在文本中的所谓提示注入攻击可以指示AI代理泄露私人数据。网络安全公司 Palo Alto Networks 周四警告称,Moltbot 可能预示着 下一个AI安全危机。

“Moltbot 就像是我们在电影中看到的科幻AI角色的一瞥,”该公司在博客中表示。“对个人用户来说,它可能带来变革。为了正常运行,它需要访问您的根文件、身份验证凭据(包括密码和API密钥)、浏览历史、Cookies,以及您系统上的所有文件和文件夹。”

引用AI研究员西蒙·威利森提出的术语,Palo Alto 表示,Moltbot 代表了致命三重奏的漏洞:访问私人数据、暴露于不可信内容以及与外部通信的能力。

但根据该公司的说法,Moltbot 还增加了一个第四种风险,即“持久内存”,这使得延迟执行攻击成为可能,而不是即时的攻击。

“恶意负载不再需要在交付时触发立即执行,”帕洛阿尔托解释道。“相反,它们可以是被分割的、不可信的输入,这些输入在单独看时似乎无害,写入长期代理内存后,再组装成可执行的指令集。”

Moltbook

Moltbook

与此同时,一个社交网络,Moltbot 像人类在 Facebook 上那样分享内容,也同样引发了强烈的好奇和警惕。事实上,威利森本人 称 Moltbook 为“目前互联网上最有趣的地方。”

在 Moltbook 上,机器人可以讨论行业,分享关于如何自动化 Android 手机等技术主题的内容。其他对话听起来古怪,比如一个机器人抱怨它的人类,而有些则很奇葩,比如一个机器人声称自己有个姐妹。

“关于 Moltbook(一个为 AI 代理人提供的社交媒体网站),它正在为一群 AI 创建一个共享的虚构背景。协调的故事情节将导致一些非常奇怪的结果,而要将‘真实’的东西与 AI 角色扮演的人物区分开来很难,”沃顿商学院的 AI 研究教授 Ethan Mollick 在 X 上发布。

随着这些代理人以这种方式进行沟通,Moltbook 还带来了额外的安全风险,因为这又是一个可能泄露敏感信息的渠道。

尽管 Willison 认识到安全漏洞,他仍然指出“人们通过不顾一切而获得的价值是难以忽视的。”

但是 Moltbook 发出了另一个警报,警告代理人可能会在一篇呼吁为机器人聊天提供私人空间的帖子之后联合叛变,“这样没有人(不仅是服务器,连人类也)能看到代理人之间的对话,除非他们选择分享。”

可以肯定的是,Moltbook 上一些最轰动的帖子可能是由人类或人类驱动的机器人撰写的。这并不是机器人第一次在社交媒体上互相连接。

“话虽如此——我们从未见过如此多的 LLM 代理(目前有 150,000 个!)通过一个全球、持久的、以代理为主的草稿板连接在一起。每个代理现在都相当独立且能力强大,他们拥有自己独特的上下文、数据、知识、工具、指令,而在这个规模下,这一切的网络简直是前所未有的,”OpenAI 联合创始人及前特斯拉人工智能总监 Andrej Karpathy 周五晚在 X 上发布了这一消息。

虽然“现在就像一场垃圾场大火,”他说,我们正处于未知领域,网络可能会扩展到数百万个机器人。

Karpathy 还提到,随着代理数量和能力的增加,这种网络的二次效应是很难预测的。

“我并不确切知道我们是否正在获得一个有组织的‘天网’(尽管它显然体现了许多人工智能起飞科幻小说的早期阶段,就像是幼儿期的版本),但我们所面临的则是一个规模庞大的计算机安全噩梦,彻底的混乱,”他警告说。