打开网易新闻 查看精彩图片

大多数人用AI的方式,像极了花大价钱买跑车却只用来买菜。你每天打开ChatGPT,问完问题拿到答案,然后关掉页面。但另一群人正在干另一件事:让AI自己干活,甚至在你睡觉时把任务跑完。

这个差距有多大?有人测过,普通用户只触发了AI约5%的能力。剩下的95%,藏在「代理」(AI Agent)这层——不是回答问题,是直接执行。OpenClaw就是最近被讨论最多的那个工具,一个开源的本地网关,能把你的浏览器、文件系统、通讯软件串成一条自动流水线。

我花了一个月时间,每天用它处理真实工作流。这篇文章说三件事:它到底是什么、怎么在本地跑起来、以及哪些场景真能省下时间。

它不像ChatGPT,更像你雇了一个实习生

它不像ChatGPT,更像你雇了一个实习生

用传统方式处理信息,你得开10个标签页,逐个复制数据,粘贴到Notion或表格,第二天再来一遍。OpenClaw的设计逻辑是:你告诉它「每天早上做这个,然后把结果发给我」,它就去执行。

核心差异在于控制权。ChatGPT给你答案,你还得动手;OpenClaw直接操作你的浏览器、管理本地文件、按时间表运行任务。它是自托管的,数据不出你的机器,这对处理敏感信息的人是个硬需求。

安装比想象中轻量。Mac用户一条命令就能拉起:

curl -fsSL https://openclaw.ai/install.sh | bash

打开网易新闻 查看精彩图片

跑完初始化后,执行 `openclaw onboard --install-daemon` 让服务常驻后台,再用 `openclaw dashboard` 打开控制台。整个过程15分钟,不需要配云服务器。

想完全免费可以接Ollama跑本地模型,对隐私偏执的人这是必选项。

我测了三个真实场景,有一个彻底翻车

我测了三个真实场景,有一个彻底翻车

第一个场景是信息聚合。我每天需要跟踪5个技术社区的更新,以前手动刷RSS+邮件简报,40分钟起。现在让OpenClaw早上8点抓取指定页面,提取标题和链接,生成摘要发到Telegram。实际耗时从40分钟压缩到3分钟——其中2分钟是我看摘要的时间。

第二个场景是客户线索初筛。作为参考,我模拟了自由职业者的工作流:让代理访问招聘平台,按关键词过滤新帖,把符合预算区间的项目信息整理成表格。这个能跑通,但问题在于网站反爬机制。OpenClaw确实能控制浏览器模拟真人操作,可遇到复杂验证码或动态加载,还是得人工介入。省下的时间大概50%,不是100%。

第三个场景我原本期待最高:自动回复邮件。设定规则后,它能读邮件、草拟回复、等我确认后发送。但跑了一周发现问题——上下文理解不够稳,重要邮件差点发错措辞。这个我关掉了。不是工具不行,是当前模型对长上下文的记忆和判断,还没达到「无人值守」的安全线。

结论很现实:重复性越高、规则越清晰的任务,自动化率越高;涉及判断和创意的,它更适合当草稿助手,不是替代者。

为什么有人愿意折腾本地部署

为什么有人愿意折腾本地部署

打开网易新闻 查看精彩图片

云端的AI工具开箱即用,但有两个隐形代价:数据离开你的设备,以及按调用量计费。OpenClaw的本地模式把这两条都解了。

对处理合同、财务数据、未公开产品信息的从业者,「数据不出本机」不是矫情,是合规底线。另外,当你把代理调度频率拉高——比如每小时跑一次监控任务——本地算力的边际成本趋近于零,云端账单会线性增长。

技术门槛被低估了。虽然安装命令只有几行,但调试本地模型、处理依赖冲突、让代理稳定访问特定网站,需要一定的工程耐心。我花了两个晚上解决M系列Mac的兼容问题,这不算极端案例。

社区里有个说法:OpenClaw现在像早期的Homebrew,功能全但文档散,得愿意翻GitHub Issue的人才能真正用起来。

一个月后的真实体感

一个月后的真实体感

省时间吗?省。每天净省约2.5小时,主要来自信息聚合和格式转换类任务。但省时间的前提是:你愿意前期投入3-5小时搭建和调试,且能接受20%左右的任务需要人工兜底。

有个意外收获是「心理带宽」。以前早上被各种待刷的信息源压得焦虑,现在知道代理已经筛过一轮,决策压力小了很多。这有点像从手动挡换到自动挡——不是开得更快,是开得没那么累。

也有明确不适合的人:如果你每周用AI少于3次,或者所有工作都在封闭系统(如企业内网)里完成,折腾这个的ROI是负的。

最后说个细节。第27天的时候,我让它监控一个竞品的价格页面,设置降价10%就推通知。结果那天凌晨3点手机响了——代理抓到了一次闪促,持续了17分钟。我买了,然后回去睡觉。这种「在你不工作时仍在工作」的体验,大概就是那95%能力的入口。

你现在每天重复做的哪件事,其实可以写成一句「每天早上做这个,然后把结果发给我」?