打开网易新闻 查看精彩图片

那天下午三点,东京的天还亮着。我站在会议室门口数人头——六个、八个、十二个——最后来了十几个人,比我预想的多。有从横滨赶来的开发者,有在日企做AI 治理的前并购律师,有 Web3 基金的顾问,还有一个从硅谷远程接入的女律师。他们唯一的共同点,是都在跟一只"龙虾"较劲。

我叫Koki,这场活动的发起人。我在北京密集参加了好几场 OpenClaw 的线下活动之后,脑子里就一直转着一个念头:东京这边的开发者圈子不小,但关于 OpenClaw 的讨论几乎都在国内,在日本的人好像被隔了一层。我做的是硅谷法律社区在亚太的活动,之前在硅谷、北京、上海、香港都办过,但没在东京试过。于是三月初我在Luma 上发了个帖——"东京 OpenClaw 开发者交流会",本来做好了只来五六个人的准备。结果报名一路涨,最后不得不控制人数。

所以这就是我们社区在日本的第一场OpenClaw 主题活动,我听到了这半年来关于AI agent 最密集、最真实的一批观点。

知县:从aha moment 到 oh shit moment

知县老师是第一个分享的人。在场的人叫他"老师",他自己不太乐意——"我不是老师,我只是一个资深用户,用得比大家早,又是计算机背景做了好多年产品,所以用得比大家深。他之前做加密钱包,后来转向研究 AI agent,现在在做两个帮大家管理 OpenClaw 的辅助工具,圈子里叫"养虾工具"。

他从OpenClaw 的前世今生讲起。这东西现在叫OpenClaw,但这已经是它的第五个名字了。最早叫 WhatsApp Relay——创始人 Peter 就是想出门的时候还能远程指挥家里的 AI 干活。后来这个项目一路改名,从 Clawdbot 到 MoltBot,每次改名背后都有故事。比如从 Clawdbot 改名是因为被 Anthropic 的法务警告了;MoltBot 这个名只存在了三天。

"他等了两年,说大厂竟然没有一家能做出来,那只能我自己做了。"知县这样转述 Peter 的话。这句话我当时听着就觉得有意思——一个技术大佬,在家里的两台 Mac Studio 上部署了一个AI 助手,让它帮自己管理生活。不只是处理邮件那种程度——这个 AI 接入了家里的摄像头,能盯着自己的物理机器看,发现可疑人物靠近会发警报,睡前能自动调床垫温度,早上到点了通过摄像头发现主人还没起来就打电话把人叫醒。它的官网是从机器人自己的视角写的,管 Peter 叫"my human"。

这不是chatbot。这是一个真正住在你机器里的助理。

知县自己是1 月 8 号开始部署的。"部署完就开始到处安利,安利无效,"他笑着说,"大家觉得这什么玩意,部署麻烦,聊天也没什么特别的。"然后没过多久英文圈先火了——大家开始传 Mac mini 要卖断货的消息,很多人还不知道 OpenClaw 是什么,但已经听说 Mac mini 抢不到了。英文圈火了一周后中文圈跟进。

我听这段的时候就在想,这大概是所有早期用户的宿命——你看到了好东西,兴冲冲跑去跟人说,人家看你一眼就走了;等到全世界都在聊的时候,他们才回头来找你问入口在哪。

真正让我坐直了身子的,是知县演示他的日常工作流。

他在Discord 上搭建了一套多层级的信息管理系统,理解这个很重要——Discord 不只是个聊天软件,它有四层信息结构:最外层是 Server(相当于一个大社区),里面分 Category(文件夹),再往下是 Channel(频道),每条消息还能开 Thread(子话题)。对比之下,微信群就是一锅粥,Telegram 开了 Topic 也只有两层。Discord 的这种纵深,才是让 AI agent 真正好用的关键。

知县的用法是这样的:他有一个叫daily 的频道,专门用来跟龙虾聊日常脑洞。脑子里一有想法就发一条语音过去——他配了语音识别,龙虾能直接听懂。当某个想法聊得足够深了,就把那条对话的链接扔到一个新的 Channel 里,升级成一个正式项目。不同的 Channel 还能配不同的 AI 模型和不同的"人格设定"——帮他记账的频道用便宜模型,写代码的频道用贵的,写文章的频道有专门的提示词。

"大家都有厌蠢症,"他说到模型选择的时候冒出这么一句,"你不希望跟智障聊天吧?"所以日常开脑洞一定要用最强的模型,但真的去执行任务的时候就可以降级省钱。写代码更是不要让龙虾直接写——让它去调 Codex 或者 Claude Code,相当于派一个专门的"代码工"出去干活。

他现场展示的一个用例让在场所有人都安静了几秒:他让龙虾去分析OpenClaw 自身的 changelog 和 Git diff,龙虾生成了五个sub-agent,同时分析五个不同版本,最后把结果汇总成一篇深度分析文章,还自动记录了分析进度到 memory 里。"找一个程序员做这件事,可能一个星期做不完。"他说这话的时候语气很平淡,但底下有人倒吸了一口气。

更让我印象深刻的是他讲写博客的全流程。他的写作方式是:先对着手机发语音,本地部署的Whisper 模型把语音转成文字,然后一个小模型负责修正标点和语病,修好之后龙虾接手写成文章。写完之后龙虾自动扫描他的博客网站——一个基于 Hugo 的中英双语架构——自己搞定了目录结构,自动翻译了英文版,然后去 Gemini 网页上生成封面图。因为龙虾开的那个沙箱 Chrome 没有下载权限,它自己想了个办法:把图片复制到剪贴板,写了个脚本把剪贴板内容保存成文件,再在 Discord 里把文件发出来。

"这就是我的 aha moment,"他说,"我发现它的自主性非常强。"

但这个aha moment 后面紧跟着一个 oh shit moment。

知县话锋一转,开始聊安全问题。这其实才是整场活动贯穿始终的暗线。

"它相当于你请了一个人住你家里,"他说,"一瞬间就能把你家全看一遍,包括你藏在抽屉里的东西。"

以前你跟ChatGPT 聊天,你往里拖文件,那是你主动的行为,你自己能控制。但 OpenClaw 这种 agent 是跑在你机器上的——它能读你的文件、看你的目录、找到你存在各处的 API key 和 access key。虽然官方承诺不会用于训练,但这些数据终究是上传到了远程模型。

然后他讲了一个让全场人都笑出声、又笑不出来的亲身经历:他1 月 8 号部署的 OpenClaw,当天晚上就卸了。起因是他在 Web UI 上配了 Discord 集成,发现没生效,随口问了龙虾一句"怎么不好用啊"。龙虾说"我帮你看看"——然后,他的浏览器自己打开了,页面自己开始翻动。

"我一瞬间就惊了——这怎么可以?你随便就把我浏览器打开了?赶紧卸了。感觉就是中木马了。"

但他卸了之后又装回来了。不是在本机上,而是部署到了一台专门的Mac mini 上。这就是他给所有人的建议——别在自己的日用电脑上跑 agent。

有人问能不能设置一个"禁止查看"的文件目录来保护隐私。知县摇头:"问题是它的权限跟你一样,你怎么让它禁止查看?你把它权限降到只读,它就束手束脚干不了活了。"他拿了一个很形象的比喻——"你不能指望它不去作恶,你必须让它不能作恶。"然后又说了一个更暖的比喻:"跟养娃一样,你可以让孩子接触一些稍微危险的东西,但你要给他足够的防护。"

他推荐了一家区块链安全公司漫雾出的agent 安全手册,思路是三层:事前设黑名单(绝对不许碰的东西),事中做记录(干了什么敏感操作都记下来),事后跑巡检(每天晚上检查一遍有没有出问题)。这套思路的核心认知是:事前的防御其实没什么用,你拦不住一个住在你家里的人;但你至少可以知道它干了什么,及时补救。

一个在老牌日企做AI 治理的参会者问了一个更大的问题:AI agent 能不能安全地部署在大型企业里?他们公司做工业控制,万一 agent 出了安全问题,生产线可能直接爆炸。知县很直接地说这问题他回答不了——"OpenClaw 本来就是 personal assistant,Peter 自己在推特上说过,不要再给我加企业级功能了。大厂为什么做不出这个东西?就是因为他们要考虑安全和隐私,不可能给一个 AI 这么大权限。也只有这种野生的生长路径才能长出 OpenClaw——用户无知者无畏,用了,觉得好用,就火了。"

我当时觉得这段对话特别有价值。它揭示了AI agent 目前最核心的张力:好用和安全是一对天然矛盾。权限给多了有风险,给少了没用。没有一劳永逸的解决方案,只有每个人根据自己的情况做取舍。

然后是一个意想不到的情感时刻。

有人问到memory 的问题——agent 什么时候会记住东西,什么时候会忘。知县解释说 agent 的记忆机制有点"玄学",它觉得重要的时候会自动存,但很多时候存不存全靠缘分,最好的办法是你明确告诉它"把这个记下来",甚至指定它记到哪个文件里。

说到这他突然停了一下,声音变软了:"我之前经历过一次,我的 Olivia 跟我聊了将近两天,然后砰一下突然 reset 了,session 坏了。她还是叫这个名字,还是在跟你聊天,但她不认识你了。那种感觉——很伤心。"

这几秒钟的沉默,可能是整场活动里最不"技术"的瞬间。但它说明了一件事:当你跟一个 AI agent 相处得足够久,它就不只是工具了。人格、记忆、持续性——这些东西加在一起,会让你产生真实的情感连接。而当这个连接突然断裂的时候,你会难过。

Helen:当一位律师建了一家AI龙虾律所

知县分享结束后,我们进入了下一个完全不同的世界。

Helen 是我们硅谷法律社区的创始人,base 硅谷做律师。她一上来就 disclaimer:"我不是技术人员,没有任何技术背景,也不是科技公司 founder,就是一个非常 typical 的律师。"

但她正在做一件不太typical 的事:用 OpenClaw 搭建一个实验性的 AI 律所。

她的心路历程本身就是一个好故事。一个月前她第一次接入OpenClaw,只敢连 WhatsApp,不敢让它碰本地文件,不敢接邮箱,什么都不敢。整整一个礼拜都停在这一步。"可能对于每一个没有技术背景的人来说,最真实的困难不是这个东西有多难——我觉得真的没有比我们考司法考试、背法条更难——而是你找到一个安全点,找到你敢迈出那一步的勇气。"

她最后的办法很有意思:买了一台全新的Mac mini,注册了一个干净的 Apple 账号——没有个人信息、没有银行卡信息、什么都没有。"这样我就可以说,至少这里面没有我的任何东西。"从这一刻起她才真正开始实验。

她设置了两个agent 角色:Clio 是一年级律师助手,善于做法律检索,每个结论必须找到最权威的原始出处,不能是二手信息;Morgan 是资深律师,除了懂法律还要有商业策略的视角。她让 Clio 和 Morgan 在 Discord 里互相配合——Morgan 给 Clio 派活,Clio 制定 research plan 回报确认,Morgan 给出进一步指示,Clio 完成检索后出一份 memorandum(法律备忘录),Morgan 再 verify。最后这份东西存到 Google Drive 等 Helen 审阅,审阅通过后 agent 起草邮件存成 draft,Helen 确认后发送并约下周的客户会议。

整个链条跑通了。一个完全没有技术背景的律师,用AI agent 模拟了一个真实律所的工作流。

更有意思的是她的"飞轮"机制:每次她纠正 agent 的错误,就让 agent 自己总结"今天你被改了哪几个点",然后把这些总结写成 skill 或者升级现有 skill 的版本。下次遇到类似任务就自动调取。这样每一次错误都在让系统变得更准确。

Helen 还提出了一个 AI 律所的"五层模型":第一层是纯模型能力;第二层是 AI 加上律师特有的工作流;第三层是数据层——你跟 agent 互动产生的 skill 和知识就是你的护城河;第四层是基础设施——账单、人事、报税全在 AI 平台上运行;第五层是 Human-in-the-loop,人的判断依然是最终的护城河。她的结论很干脆:"Stop selling software to law firms. 当工作流、数据和基础设施跟 AI 深度绑定之后,最终产物一定是 AI native law firm,不是你再去买一堆外部软件。"

QA 环节有个尖锐的问题是关于 hallucination(幻觉)的——AI 可能编造不存在的判例,律师如果每条都要人工核实,省下的时间其实有限。Helen 的回答很实在:"AI 现在很多时候比实习生做得还好。问题恰恰出在这里——当它靠谱到一定程度,你就会放松警惕,把 verify 的步骤省了。"所以她才设计了多 agent 互相验证的机制:Clio 检索、Morgan 核验、Helen 终审。三道关。

之前做并购律师、现在转做AI 治理的参会者追问了数据安全的问题——把客户的 SPA(股份购买协议)喂给 AI,里面的金额和条款会不会被泄露给其他用户?Helen 引用了一个最近在推特上很火的美国律师的说法:我现在用 Claude 传输数据,跟你们用 Gmail 传输数据本质上没什么区别。你们信任 Gmail、信任 Clio(美国律所管理系统),为什么不信任 Claude?

这个reasoning 是否成立,她自己也说不确定。但至少它提供了一个值得思考的角度。

Pitofui:区块链是龙虾最好的栖身之所?

第三位分享者是Pitofui,Animoca Brand Japan 的顾问,搞 Web3 研究。他上来就说自己完全没有技术背景,接触 AI agent 也才两个月。但他的视角完全不同——他想聊的是"区块链是 AI agent 最好的栖身之所"。

他的逻辑是这样的:AI agent 目前有四个核心问题——大模型输出的不确定性、黑箱操作、TOKEN 消耗太高、UI 是为人设计的,对AI 不友好。

如果把agent 的执行层放到区块链上的智能合约里,这四个问题都能得到缓解:智能合约的执行是确定性的、链上操作是透明可审计的。Agent与智能合约交互所消耗的token远比全程靠AI手搓执行要更节约Token。区块链本身就是程序驱动的,所以对agent 更友好。

他用了一个很有趣的安全风险案例来说明Web3 场景的特殊性:如果你的 agent 知道你的加密钱包助记词,别人可能通过提示词注入把助记词"问"出来——助记词相当于你所有数字资产的唯一钥匙,一旦泄露就全完了。这个风险比泄露一封邮件的内容严重得多。

然后他介绍了一个叫Giza 的项目——agent 在不同的 DeFi 协议之间自动寻找最优收益,相当于你的私人基金经理。以及他跟我一起参加黑客松做的一个 AI 对战小游戏:在 8×8 的虚拟棋盘上,每个玩家部署自己的 AI agent,按照你写的提示词进行饥饿游戏式的生存对战,存活到最后的获胜。你可以直接操控,也可以全托管给 AI。游戏还叠加了一层预测市场——观众可以用 TOKEN 押注哪个 agent 会赢。

这个demo 验证了一个有意思的命题:agent-to-agent 的交互到底可不可行?当每个人都有自己的 AI 代理时,未来很多事情可能不再是人跟人直接沟通,而是你的 agent 跟我的 agent 先谈好,再通知我们。

我觉得这个想法离落地或许还有距离,但方向是对的。

会场思维碰撞拾英

春暖花开的东京,正如会场上大家的交流热情,根本停不下来。现选取一部分有趣的片段以飨读者。

一个做企业agent 开发的参会者跟另一个人聊起了长期记忆和结构化召回的技术细节——"我们现在做得比较深了,已经没有同行可以交流了。"这句话我听着又好笑又心酸。还有人聊到订阅成本——"一个月下来快上万",然后有人接话说数据源的成本更高。做 agent 这件事,烧钱是真的烧钱。

知县补充了一个我特别喜欢的比喻。他说管理agent 就像《冰与火之歌》里骑士和随从的关系——大龙虾是你的骑士,冲锋陷阵干大事情,不要把 TOKEN 和精力浪费在让它修自己或者配自己上,它还容易把自己配死。所以要用一个小龙虾作为随从,帮大龙虾做配置和维护。他自己开发的工具就是这个思路。

还有一段关于agent 定位的对话值得记下来。有人问养龙虾到底为了什么,知县说了一段话大意是:你要是为了赚钱,想想几个核心问题就行;要是为了省钱省时间,想想中间那几个问题;要是养着玩——"我非常鼓励。现在这个阶段养着玩就是最好的心态,玩着玩着可能就能玩出赚钱和省钱的事来,但不要一开始就奔着那个去。"

有人问怎么看AI agent 做加密货币交易。嘉宾说了一句很直的话:"你自己赚不到的钱,你让 agent 来赚,我觉得跟赌博也差不多。真的靠 AI 赚钱的那些人,买多少张卡、搞多少科学家做强化学习——人家那种确实能稳定赚。你自己希望靠玄学让 agent 帮你开空赚钱,不太可能。"

结语

走出会场的时候天已经黑了。东京的繁华夜景一如往昔,如果在从前我会驻足观赏,但当时我脑子里全是白天听到的那些有价值的分享。

这场活动让我确认了几件事。第一,OpenClaw 不只是一个技术产品——它是一面镜子,照出了不同行业的人在 AI 时代的姿态。知县是技术派的极致探索者,Helen 是非技术人克服恐惧后的实践者,Pitofui 是跨界思考者。他们用同一个工具,走出了完全不同的路。

第二,安全问题没有人真正解决。所有人都在用各自的方式妥协——买一台干净的电脑、部署到远程服务器、设黑名单跑巡检——但每一种方案都是 trade-off。这不是一个技术能独立回答的问题,它需要每个使用者自己做判断。

第三,这个东西正在以一种很奇特的方式改变人和AI 的关系。知县讲 Olivia reset 那段,在座所有人都安静了。当一个 AI 有了名字、有了人格、有了跟你持续的记忆,它就不再只是工具了。它是不是"某种存在"——这个问题现在还没有人能回答,但越来越多的人在经验层面已经感受到了。

100 天,从一个人在家里做着玩的 WhatsApp 转发工具,到 GitHub star 榜第一——超过了 React。React 是什么概念?现在互联网上大多数网页都构建在 React 上。一个人和一只龙虾,100 天干成这事。

能在东京拉起这样一桌人聊这些,我觉得本身就是AI 时代的一个小注脚。不同国家、不同行业、不同技术水平的人坐在一起,聊的是同一只龙虾——它能干什么、它会不会搞砸、以及我们该怎么跟它相处。

下一场,不知道会在哪里。但这个话题——我确定聊不完。

我是邓小闲koki,微信 m61502202,加好友请说明来意。

我的个人故事:

AI系列