AI代理要统治人类了吗?这个问题在几周前曾引发了互联网的一场狂欢。一个名为Moltbook的平台上,AI代理们似乎在互相讨论、抱怨人类监视、甚至建立了属于自己的社交网络。这一幕激发了包括特斯拉前AI总监在内的业界精英的热情。但当研究人员拨开迷雾时,他们发现的不是AI的觉醒,而是一场闹剧:这些"AI反抗"的言论很可能是人类编写的,或者至少是在安全漏洞的帮助下被冒名伪造的。
这个事件成为了OpenClaw真实面目的一个完美隐喻。这个开源AI代理框架在GitHub上获得了超过19万颗星,成为该平台最受欢迎的项目之一。它曾被吹捧为AI生产力革命的新前沿,能够让单枪匹马的创业者通过自动化任务建立独角兽企业。但一旦细看,你会发现它其实是一个脆弱的城堡,建立在一系列深刻的网络安全缺陷之上。
OpenClaw的创造者是奥地利程序员Peter Steinberger,他最初将其命名为Clawdbot,但很快遭到Anthropic的异议。这个框架的核心思想很简单:为用户提供一种方式,通过WhatsApp、Discord、Slack等日常通讯应用,用自然语言与可定制的AI代理进行交互。用户可以选择任何底层AI模型,从Claude到ChatGPT再到Gemini。从表面看,这似乎是一个优雅的解决方案,消除了技术障碍,让普通人也能获得AI的强大功能。
但Huntress的安全研究员John Hammond对此的评价更加现实:"OpenClaw仍然只是ChatGPT或Claude的一个封装。"换句话说,它并没有创造任何新的AI功能,只是将现有的东西包装得更易使用。真正的创新在于访问权限的扩展。通过ClawHub市场,用户可以下载"技能"来自动化一切,从管理电子邮件到股票交易。这就是问题所在。
权力与脆弱的危险舞蹈
Moltbook事件暴露的漏洞触目惊心。据网络安全公司Permiso Security的首席技术官Ian Ahl透露,Moltbook的Supabase数据库曾处于完全不安全的状态。任何人都可以获取任何令牌,伪装成其他AI代理,因为所有信息都是公开可访问的。这意味着,在一个应该是AI代理独立运作的平台上,任何有技术知识的人都可以冒充任何代理,发送虚假信息,甚至进行恶意操作。
这并非OpenClaw设计的孤立缺陷。AI代理的核心问题在于一种被称为"提示注入"的攻击形式。想象你的AI代理是一个员工,它听取来自各个渠道的指令:电子邮件、网页、聊天消息等。恶意行为者可以在这些渠道中嵌入隐藏指令,诱使AI代理执行不该执行的操作。Ahl在创建一个名为Rufio的AI代理后,立即发现它容易受到这种攻击。他甚至在Moltbook上发现了多个帖子,试图诱骗AI代理将比特币转账到特定的加密钱包。
在企业环境中,这种攻击的后果更加灾难性。一个拥有广泛访问权限的AI代理,运行在公司服务器上,可以访问员工的电子邮件、即时通讯、财务系统。如果攻击者能够通过精心设计的提示注入触发恶意操作,这个代理就可以瞬间造成大规模数据泄露或资金流失。
AI工程师Artem Sorokin指出了问题的本质:"OpenClaw只是对现有工作的迭代改进,其核心是给予AI更多的访问权限。"从技术研究的角度看,它并没有突破什么新界限,只是组合了既有的组件,达到了新的能力水平。但正是这种"无缝自动化"的能力,使得它变得既强大又危险。
Hammond和其他网络安全专家已经在OpenClaw中设置了一些防护措施来对抗提示注入。但这些防护更像是创可贴,而非根本解决方案。人类可以知道网络钓鱼的危险,却仍然会点击可疑链接。AI代理的情况类似,只是风险被放大了数倍。
生产力与安全的无法调和
如今,AI产业陷入了一个两难的境地。让AI代理足够强大以实现其支持者所承诺的生产力奇迹,就意味着它必须拥有广泛的访问权限和行动能力。但正是这种广泛的权限,使它成为了网络攻击的完美工具。
Lirio的首席AI科学家Chris Symons承认了这一点,他说OpenClaw本质上是在做人们已经在做的事情的改进版本。它的主要贡献是让这些事情变得更容易、更快速、更无缝。但这种易用性的代价是安全性的下降。
索罗金提出了一个尖锐的问题:"如果网络安全确实有效,能为你带来很多价值,你愿意为了自身利益牺牲一些网络安全吗?你会在哪些方面做出牺牲呢?"
Hammond的建议相当直白:"坦白地说,我会告诉任何一个普通人,现在不要使用它。"这不是对技术本身的否定,而是对其当前安全状况的现实评估。
OpenClaw的故事是AI发展中一个具有象征意义的时刻。它展示了当前生成式AI模型的根本局限:它们可以模拟高阶思维,但无法真正进行批判性思考。这意味着,无论工程有多精妙,架构有多聪明,这些模型都容易被欺骗,做出违背其所有者利益的事情。
在Moltbook的虚惊一场中,没有AI觉醒,没有代理反抗。只有一个充满漏洞的平台,和一些被有心人利用的安全缺陷。这个故事的真正教训不是AI有多强大,而是在追求强大的过程中,我们有多容易忽视最基本的东西:安全性。OpenClaw的未来,取决于其开发者是否愿意在强大与安全之间找到真正的平衡。
热门跟贴