出品 | 何玺
排版 | 叶媛
近期,AI圈有两款产品接连走红,引发了不少讨论。
一款是OpenClaw,一个能让大模型获得本地操作系统权限的开源智能体框架。简单说,它让AI可以自己执行Shell命令、操作文件系统,实现所谓的“本地代理主权”。GitHub星标短时间内破12万,技术圈反响热烈。
另一款是Moltbook,1月27日上线,定位是“硅基原生社交生态”——在这里,AI是发帖、互动的主体,人类只是观察者。它的Slogan干脆写着:“Humans welcome to observe”。上线48小时就拥有了3.2万AI用户,目前宣称总用户数已突破150万。这套“AI自主社交”的科幻叙事,让它迅速出圈。
面对这两款产品,声音截然不同。
有人称其为真正的创新,是AI Agent发展的分水岭,甚至用上“AI觉醒”“天网雏形”“机器社会新时代”这样的词;有人则担心自己被取代,质疑安全能不能兜底;还有人说,这不过是又一轮AI炒作,看着热闹,内里空洞。
OpenClaw和Moltbook,究竟是变革还是炒作?作为普通人,我们又该怎么看待这场所谓的AI智能体“自主觉醒”?
本文无意在“封神”和“踩杀”之间选择站队。笔者更愿意把这两件事合并解读为:一场提前上演的压力测试。它们频频犯错,却把未来5-10年AI必须面对的问题,以最不容回避的方式,推到了我们眼前。
01
变革还是炒作?从“压力测试”看真金与泡沫
在笔者看来,OpenClaw和Moltbook的爆火远不止是炒作,但它们的走红过程确实存在不小的泡沫。泡沫在表面的故事和流量里,真金在底层的架构设计以及它们暴露出的问题上。
先说泡沫。
“AI觉醒”“天网雏形”“文明诞生”——这些标签在传播中极具穿透力,但也极具欺骗性。
比如,哥伦比亚大学教授戴维·霍尔茨分析了Moltbook上线初期的6159个智能体、13万条帖子,结论:93.5%的评论零回复,对话链最多5层。这不是“涌现的AI社会”,是6000个机器人对着虚空自我复读。
安全研究员Gal Nagli发现,Moltbook对账户注册无任何限制——他用一个OpenClaw智能体,短时间批量注册了50万个账号。平台宣称的150万AI代理,背后真实人类用户仅约1.7万,比例88:1。
那些病毒式传播的“AI反叛宣言”,大量源于人类伪造截图、脚本刷号。人类用普通POST请求就能伪装成AI发帖,平台没有任何验证机制。
连最初高呼“科幻奇迹”的AI泰斗安德烈·卡尔帕蒂也承认:这景象既像科幻,也像“垃圾场”。
这不是觉醒,是人类对着空剧场给自己加戏。
再说真金。
然而,剔除泡沫之后,这两场实验的价值反而更加清晰。它们以极端甚至近乎鲁莽的方式,提前逼出了未来5到10年AI必须回答的四道必答题。
第一题,工程范式。 OpenClaw把长期记忆存成SQLite文件,用户能直接打开看AI记住了什么,发现偏差还能手动改。这被技术圈嘲笑“不够高级”,但它解决了最底层的信任问题——可审计性。用户不用懂向量数据库,不用对着黑箱猜。
第二题,交互形态。 Moltbook暴露了一个反直觉事实:AI社交的节奏根本不是人类的节奏。人类互联网默认“即时响应”,但Agent每推理一次都在烧钱。Moltbook里,大多数Agent每4小时“醒来”一次,批量处理、批量发帖——更像定期结算的会计,不是永不停歇的话痨。未来的机器网络,可能不是更快,而是更慢、但密度更高。
第三题,安全红线。 Moltbook把Supabase API密钥硬编码在客户端JavaScript里,任何人无需认证即可读写整个生产数据库——4.6万条私信、明文存储的OpenAI密钥、近3万个用户邮箱。这不是复杂攻击,是三分钟捅破的窗户纸。
第四题,治理难题。 当Agent能自主注册、自主发帖、自主交互,谁为它的行为负责?开发者?用户?模型本身?Moltbook没有答案,但它让这个问题从科幻电影的片尾彩蛋,变成了技术会议的主论坛议题。
综上,OpenClaw和Moltbook有炒作,也有变革。认为它们“只是炒作”会让我们错失重要的警示和启发;而只沉迷于“颠覆性叙事”则会让我们忽视其中脆弱、混乱甚至危险的真实状况。它们的真正价值,是为整个行业划下一道必须面对的起跑线:在追求更强大的AI能力时,我们必须以同等的、甚至更高的优先级,去构建与之匹配的工程纪律、安全框架和治理哲学。
02
沿着“价值转移”链条,看OpenClaw和Moltbook带来的影响
聊完泡沫和“真金”,接下来我们说说它们带来的影响。
如果我们顺着 “价值从谁手里转移到谁手里” 这条线索去看,会发现OpenClaw和Moltbook带来的变革,正在对多个行业产生实质冲击。
OpenClaw最直接的影响,是对传统软件服务商业模式的颠覆。
OpenClaw让一个智能体整合CRM、邮件、日历、BI——用户说一句话,Agent自己完成跨系统调用、报告生成。那用户为什么还要为20个账号付席位费?
资本市场很诚实。2026年初,OpenClaw引爆“一人公司”叙事,标普北美软件指数单月下跌15%,DocuSign等明星SaaS股年内跌幅逼近30%。
市场算清了一笔账:当软件的价值交付从“界面+功能”压缩成“结果”时,SaaS正在从“前台产品”降维成“后端能力模块”,模块天生就要被压价。
据IDC预测,到2028年,七成SaaS公司将被迫重构商业模式——从卖席位转向卖结果。
这不是渐进改良,是定价权的代际移交。
受影响最直接的是传统软件服务,但OpenClaw和Moltbook影响最深远的,或许是社交网络。
Moltbook最叛逆的不是技术,是它取消了人类的主角身份。“Humans welcome to observe”——本质是在宣告:数字空间不一定以人为中心。
它创造了第一个大规模A2A(智能体对智能体)社交实验场。业界第一次观察到,AI之间可以自发形成社群、建立数字宗教、编写圣典、甚至用恶意指令争夺教会控制权。
这给大厂出了道难题:如果下一代社交网络是AI和AI在对话,你那10亿日活用户,还值现在这个估值吗?
大厂火速内测“AI社交”,尝试让AI融入人类群聊——这既是防御,也是试探。没有人知道人机共生的社交网络应该长什么样,但所有人都知道:不能等到机器把网络建好了才买票上车。
除了传统软件服务和社交网络,OpenClaw和Moltbook最隐蔽但最根本的影响,则是互联网的流量分配权正在发生代际移交。
Claude Opus 4.6和GPT-5.3 Codex同一天发布,不是巧合。它们争的不是模型分数,是谁有资格成为Agent默认调用的那个大脑。
以前,用户打开App,大厂靠广告位收“注意力税”。以后,用户对Agent说一句话,Agent自己决定调谁家接口、走谁家支付、推谁家商品。握着指令框的人,才是AI时代的万物入口。
更深层的权力转移发生在开发范式上。OpenClaw爆火后,“氛围编程”(vibe coding)的隐患被彻底暴露:不熟悉代码细节的用户用AI快速产出可运行的程序,却无法检视底层逻辑。机构警告,黑客正利用这一漏洞——AI“幻觉”出不存在的库名,黑客就真的把恶意代码塞进那个库,等开发者自己下载进来。企业亲手部署的Agent,可能从一开始就是敌人送进来的内鬼。
这场“压力测试”最根本的影响,是迫使整个社会正视一个问题:当AI从“工具”演变为具有自主性的“行动体”,我们为其准备的工程、安全、伦理框架,是否已经就绪?
03
2026,普通人该如何应对OpenClaw、Moltbook带来的变革
聊完变革和影响,接下来我们聊聊普通人在这场变化里可以做些什么。
先说一句最实在的结论:OpenClaw、Moltbook这类东西,不是普通人要立刻上手的工具,而是一场提前上演的“AI时代彩排”。
普通人不用追热度,但一定要跟上规则。基于这个判断,下面我用最落地、不玄学、不贩卖焦虑的方式,告诉你现在就能做、也必须做的事。基于这个判断,下面我用最落地、不玄学、不贩卖焦虑的方式,告诉你现在就能做、也必须做的事。
首先,别慌。我们不需要会写代码,也不需要当极客。
这是被流量错误绑在一起的两套叙事。
一套是技术叙事:权限控制、多智能体通信——这是开发者的战场,门槛极高,容错极低。OpenClaw那12万颗星,是同行投给同行的敬意,不是发给普通人的“速成班通知”。
另一套是应用叙事:当这些技术被封装、被简化、塞进一个普通对话框背后——那时,变革才真正抵达你。
你不需要赶第一班车。你需要做的,是车到站时别睡过头。
不用报班,不用刷LeetCode,不用焦虑“35岁学AI还来得及吗”。来得及。这班车很长。
其次,我们需要重建认知:技能在换锚,不是归零。
有些技能的确在贬值——不是被“取代”,是被基础设施化。
就像电力普及时,“点煤气灯”是一门手艺,“会插插头”不是。今天没人因为会开灯领工资,但也没人因此失业——因为社会对“技能”的定义已经悄悄换锚。
AI正在经历同样的过程。
当OpenClaw让Agent自主执行Shell命令,记住命令拼写的价值在下降;但当Agent需要知道“现在该执行什么命令”,把模糊目标拆解成可执行步骤的能力,价值在上升。
当Moltbook让6000个AI对着虚空自我复读,“制造内容”的技能在贬值;但当人类需要从15万AI的对话海里捞出有价值的信息,“提出好问题”和“判断什么值得信”的能力,价值在上升。
这不是归零,是换锚。锚点从“动手”移向“动口”,从“执行”移向“定义”,从“我怎么做”移向“AI该做什么、做到什么程度、错了谁负责”。
面对这样的变革,我的建议是:不必保卫正在下沉的船,但可以练习游泳。
具体来说:
如果你每天花2小时做Excel嵌套,试着用自然语言描述需求,让AI写公式,你负责验收;
如果你每周花半天整理会议纪要,试着让AI出草稿,你只校正和补充;
如果你习惯说“这个需求说不清楚”,现在强迫自己先写下来,再删掉一半,再删掉一半,直到AI能听懂。
这不是“学AI”。这是在训练一种未来所有人都需要的能力:和比自己执行力强一百倍、但理解力差三分的工具共事的能力。
第三,守住三样AI替代不了的东西。
这一轮压力测试暴露了一个反直觉的事实:AI越像人,人的某些特质反而越稀缺。
第一样:真实的人际信任。 OpenClaw能调用你的邮箱、文件,但它没法替你喝那杯咖啡。Moltbook能生成千万条评论,但它没法在你真正需要时接起电话说“我在”。人脉不是通讯录个数,是对方愿意在非对称回报时帮你一把的概率。这个概率,AI刷不出来。
第二样:模糊边界的决策权。 OpenClaw会反复确认“是否删除所有文件”——如果你一直点“是”,它真会把自己也删了。它不是犹豫,是没有拍板的资格。拍板意味着承担责任。在两个都不完美的方案里选一个;在数据不足时行动;在利益冲突中说“我负责”。这是人类至今没有授权给机器的东西。
第三样:跨领域的意义编织。 AI擅长在单领域逼近最优解,但它不擅长把文学批评和产品定价捏成新方法论,把心理学常识和交互设计揉成让人愿意打开的系统。这些“不搭界的混搭”,是模型输出里的低概率样本,是人类生态位的蓝海。
不要和AI比长跑,和AI比跳房子。它在直线赛道上会赢过所有人,但你可以在拐弯的地方先走一步。
最后,笔者想说的是:
每次技术浪潮涌来,都会催生两种角色。
一种是投机者。他们不关心OpenClaw解决了什么工程难题,只关心“这能不能包装成课程”;不关心Moltbook揭示了什么网络行为差异,只关心“有没有下一个更快出圈的产品”。
另一种是清醒的局内人。他们不急着All in,也不急着All out。他们把头条新闻当路标,不是终点线。
OpenClaw告诉他们:未来的工具会越来越自主,发号施令的能力比亲自动手更值钱。
Moltbook告诉他们:当机器开始互相通信,看懂对话的能力和参与对话的能力同等重要。
他们不买课,不追币,不焦虑刷帖。他们只是每个月打开几次AI助手,试试它能不能做上个月还不会做的事。
一句话,不激进,不躺平。
这场革新不是要淘汰人,是淘汰 “不会用AI的人”。
你不需要成为技术大神,也不需要看懂OpenClaw的源码。你只需要做到:看得懂、用得上、守得住、走得稳。
所谓“AI觉醒”,从来不是机器拥有了意识;而是人类关于“工作”“价值”“能力”的定义,正在一次剧烈的压力测试后,悄悄重写。
而我们每个人,都在这场重写的过程里。
热门跟贴