作者:小白
一个因名字太像Claude而被迫更改身份的开源AI项目,却意外地成为了整个行业的一面镜子。
在不到72小时内,Clawdbot变成Moltbot再变成OpenClaw,这段"多重身份"的经历暴露了开源AI在爆炸式增长中存在的问题——不仅仅是商标纠纷,更是生态中信任体系的脆弱性。这个能够自主执行真实任务的项目为何引发如此大的关注?它的两次更名又意味着什么?
一、从PSPDFKit的成功者到AI浪潮的弄潮儿
Peter Steinberger似乎天生就懂得如何把握技术趋势。十多年前,他发现了PDF渲染这个看似琐碎却困扰全球开发者的问题,建立了PSPDFKit,最终以1.16亿美元的估值卖给了Insight Partners。这一次,他再次从个人需求出发。2024年4月,Steinberger开始思考如何构建一个真正有用的AI助手,但当时的模型能力还不足以支撑这个想法。他的直觉告诉他,这样的产品必然会由大公司开发,个人做这件事似乎没有意义。
直到去年11月,一切改变了。Steinberger在Claude Code的演示中看到了一只名叫Clawd的空间龙虾,这个吉祥物激发了他的灵感。他决定开发一个能够通过WhatsApp和Telegram接收指令的本地AI助手。这不是一个复杂的架构——最初就是一个Node.js服务器连接到OpenAI API,具备本地shell执行权限。但它能做的事情远超预期:发送邮件、更新日历、执行代码、甚至能记住用户的偏好。
2026年1月,Steinberger将代码上传到GitHub,使用MIT许可证开源。他预期会有一些开发者感兴趣,但现实远超想象——项目在7天内突破10万GitHub Star,创造了整个AI历史上最快的增长速度。这比Dify、Llama等项目达到这个里程碑的速度都要快。突然间,每个技术社区都在讨论Clawdbot。推特上充斥着人们购买Mac Mini服务器运行这个项目的讨论。Discord中的开发者社区每分钟都在增长。这不仅仅是病毒式传播,更是整个行业对"真正能做事的AI代理"这一概念的集体觉醒。
二、三次更名,从商标冲突到生态信任危机
惊人的增长吸引了Anthropic的注意。1月27日早上5点,这家AI巨头发出了一封邮件——Clawdbot的名字过于接近Claude,构成商标侵犯风险。Steinberger面临选择:要么走上法律之路,要么妥协。他选择了后者,但采用了一个巧妙的策略。龙虾会蜕壳,这是它们成长的方式。新名字应该是Moltbot,molt意为"蜕壳"。
然而,新名字并未如预期带来平静。恰恰相反,混乱加剧了。社区陷入困顿——Clawdbot、Moltbot、OpenClaw是同一个项目吗?还是各自独立的分支?旧的文章继续使用过时的名字。GitHub讨论中充斥着关于"正确"名字的争执。这个时间窗口对那些早就虎视眈眈的不法分子来说是完美的机会。
加密交易者在Pump.fun平台上火速推出了$OPENCLAW代币。诈骗者在Twitter上创建了伪造的官方账号。有人甚至尝试注册与项目相关的各种域名。更讽刺的是,一位黑客成功接管了Steinberger个人的GitHub账户steipete,创始人不得不联系GitHub的高管寻求帮助。整个生态在短短48小时内失控。根据报道,这场混乱导致约1600万美元的加密损失。
到1月30日,社区投票决定采用最终名字:OpenClaw。这个名字更"中立",更符合开源理念,也摆脱了与Anthropic商标的任何关联。但伤害已经造成。一项非正式的调查显示,有超过三分之一的开发者因为这段混乱经历对项目的可信度产生了疑虑。一位资深安全研究人员在Twitter上评论:"品牌不仅是营销工具,更是安全信号。当名字在改变,信任在瓦解。"
三、安全困境与开源理想的碰撞
名字之争的背后,隐藏着一个更深层的问题:OpenClaw作为一个需要系统级权限的自主代理,其安全性争议从未停止。项目发布不到一周,安全研究员就发现了1009个暴露在公网上的OpenClaw实例。其中一些配置错误的节点甚至允许未授权访问。
问题的根源在于OpenClaw的权力范围。为了真正有用,这个助手需要能够访问文件系统、执行shell命令、发送消息。但这也意味着,一旦配置不当,攻击者可以获得几乎无限的系统权限。Hudson Rock的研究发现,许多用户将API密钥和各种服务令牌存储在纯文本JSON文件中。一个本地进程感染或一个权限提升漏洞,就能导致整个系统沦陷。
更危险的是所谓的"记忆污染"。OpenClaw的持久记忆存储在MEMORY.md和SOUL.md文件中。如果攻击者获得了写入权限,他们可以注入恶意指令,永久改变AI代理的行为逻辑。这不仅仅是一次性的欺骗,而是持续性的系统破坏。
这些安全问题催生了一场业界关于"开源=自由"与"开源=安全责任"的辩论。一方面,OpenClaw的支持者(包括IBM的研究科学家Kaoutar El Maghraoui)强调开源的优势:社区审计、透明度、不依赖单一企业的垂直整合。另一方面,安全专家指出,许多用户显然没有做好部署这样一个强大系统的准备。
Anthropic本身对此有复杂的感情。一方面,OpenClaw大量使用他们的Claude模型,事实上在推广这些模型。但另一方面,Anthropic似乎更倾向于保持对自主AI系统的控制——这也是他们选择强制更名的理由。一位业内观察者指出,Anthropic的法律行动虽然商业上合理,但在最坏的时刻采取行动,反而加剧了整个生态的信任危机。
热门跟贴