打开网易新闻 查看精彩图片

有读者在我聊 Harness 翻译的那篇文章下留言,说可以叫 Hermes 爱马仕。本以为是谐音梗,没想到真有一个 Agent 产品叫 Hermes,而且在 GitHub 热门榜单上霸榜整月,累计 4.8 万 Stars。

和这段时间爆火的 Agent 龙虾不同,后者主打跨平台个人 AI 助手,Hermes 的 slogan 是「the agent that grows with you」——与你共同成长的 Agent。听着像高级话术,但这确实是它的独特之处。

它内置了一套学习循环框架。OpenClaw 靠改配置文件、联合多个 Agents 处理复杂任务,Hermes 则是单一 Agent 框架,能力随实际运行时间自动增强。

它解决了一个被忽视的问题:所有人都在讨论 agent 能做什么,却没人注意 agent 用完之后什么都不留下。Hermes 能记住「什么方法有效」。

社交媒体上不少迁移帖,有人说从 OpenClaw 转到 Hermes 是「最明智的选择」,还有人写「爱马仕橙皮书」,称它是被严重低估的开源框架。

由 Nous Research 团队研发,GitHub 记录显示从 3 月中旬 V0.2.0 到昨天 V0.8.0,每次更新都有大量代码合并和功能迭代,活跃度极高。首次发布是 2 月 25 日。

Karpathy 之前分享的 LLM Wiki 笔记大法——用大模型和 Obsidian 搭建知识库——也被迅速收进 Hermes 的内置技能。安装方式很灵活,电脑端直接装,Android 手机通过 Termux 终端也能跑。模型配置和 OpenClaw 类似,目前还没被 Claude「封杀」,Pro 以上会员可直接配置,也支持 Nous Portal 订阅登录。

今天小米大模型也官宣:Xiaomi MiMo 已接入 Hermes Agent,限免两周。

OpenClaw 的核心是把 AI 从聊天框拽进真实场景,接微信、企微、飞书,跑命令、控浏览器、发邮件、管日程。但它的缺陷也很明显:无法从日常使用中自动进化。记忆是静态的——写进配置文件,读取,会话结束,下次再读。不会主动提炼执行经验,也不会因为被纠正过一次就自动做对。所有工作流用过一遍,仍需手动打包成 Skill 或提示词。

虽然有些 Skill 被设计来赋予 OpenClaw 自学习能力,但 Hermes 是从底层架构到记忆系统、再到执行内部,都把「越用越懂你」作为重点。

它的特别之处是一个闭合的学习循环 Learning Loop。

每次任务完成后,Hermes 会检查:这次值不值得记下来?触发条件很具体——工具调用超 5 次、中途出错后自修复、用户做过纠正、或者走了一条不明显但有效的路径。满足任意一条,就在 ~/.hermes/skills 目录生成 Skill 文件。

和技能市场的 Skill 一样,这是份可直接复用的操作流程:名称、描述、步骤、工具调用,全部写清。格式遵循 agentskills.io 开放标准,理论上可跨兼容,在 OpenClaw、Claude Code、Cursor 等工具内使用。

技能文件不是一次写死。后续发现更优路径,Hermes 会直接修改,优先用 patch 打补丁——只传入旧字符串和替换内容,而非整体重写。这个选择有两个考量:全量覆写容易破坏原有好用的部分,patch 只碰有问题的地方,更安全,token 消耗也更少。

另一项差异是记忆系统。

前几天,《生化危机》女主 Milla Jovovich 和工程师 Ben Sigman 发布开源记忆工具 MemPalace,两天斩获 2.3 万 Stars。灵感来自古希腊演讲家的记忆宫殿技法:把信息放进想象建筑的不同房间,需要时走进去取。系统分五层——Wing(项目/人物)、Hall(记忆类型)、Room(话题)、Closet(压缩摘要)、Tunnel(跨话题引用)。仅靠层级结构,检索准确率从 60.9% 提升到 94.8%。

MemPalace 的核心判断是:不该让 AI 决定什么值得记,AI 的判断不可信,不如全存下来,让检索决定什么有用。

月初 Claude Code 50 万行代码泄露事件中,另一种方案被网友发现:Claude 会用「做梦」方式,通过 Auto Dream 自动整理记忆文件。

Hermes 的记忆系统分四层,每层负责不同事务,在不同时机被调取。

第一层常驻提示记忆。MEMORY.md 和 USER.md 两个文件,存放每次会话自动加载的上下文。总字符上限 3575,是 Hermes 故意收窄的——强迫筛选,而非什么都塞。

第二层会话归档。每次对话写入 SQLite 数据库,全文索引检索。需要历史上下文时,主动查询,经 LLM 摘要后只注入相关部分。

第三层技能文件,即学习循环的产出。默认只加载技能名称和简短描述,全文按需调入。效果是技能库从 40 个涨到 200 个,上下文成本几乎不变。

第四层 Honcho,可选的用户建模层,跨会话被动积累偏好、沟通风格和领域知识。适合把 Hermes 当日常个人助理长期使用的场景。

四层分工原则清晰:每次对话都要出现的,放第一层;特定话题才有用的,等第二层检索;可复用操作流程,第三层处理;长期用户画像,交给第四层。

消息进入 Hermes Agent,无论来自 Telegram 等第三方网关还是命令行,都进入同一套同步执行引擎:生成任务 ID,从记忆层构建系统提示,优先复用缓存版本,发送前检查上下文长度,调用模型。

除任务执行中的学习循环,Hermes 还会在会话间隙触发周期性微调(Periodic Nudge):无用户输入时,系统自动发内部提示,要求回顾最近操作,判断哪些值得写入记忆。完全自主,无需用户触发。

安装方式和 OpenClaw 类似,Linux、macOS、WSL2 一行命令,Android 用 Termux 也支持。Hermes 明确不支持原生 Windows,需另装 WSL2。

安装命令自动处理大量依赖:Python 3.11、Node.js v22、ripgrep、ffmpeg、虚拟环境、全局命令、LLM 配置等。装完后的界面和 Claude Code 等终端工具类似,通过具体命令与 Agent 交互。

模型配置可选范围很宽:Nous Portal(订阅制,零配置)、Anthropic(直接用 Claude,API key 或 Claude Code 授权)、OpenRouter、DeepSeek、Hugging Face、阿里云 DashScope(Qwen 系列)、GitHub Copilot,以及任何 OpenAI 兼容接口包括 Ollama 本地模型。

还有小米 Xiaomi MiMo-V2 系列:百万上下文 Token 的 MiMo-V2-Pro、全模态理解的 MiMo-V2-Omni、以及 Flash 模型。小米提供 4.8-4.22 两周限免,更新 Hermes 到最新版,通过 Nous Portal 免费调用。

Hermes 还有 Auxiliary Models 模块,专门处理「侧任务」的轻量模型配置,不负责主对话,但承担图像分析、网页提取、Skill 匹配、记忆处理等高频关键又不值得占用主模型的工作。默认自动检测并优先使用 Gemini Flash,无需手动配置。

这和 Anthropic 今天推出的 advisor 功能类似,都是主模型昂贵时把边角任务切到便宜模型的机制。Hermes 直接把「多模型编排」做成了底层架构。

消息平台支持和 OpenClaw 类似,Telegram、Discord、Slack、飞书功能最完整,语音、图片、文件全支持。一套网关进程连接所有平台,会话统一管理。

Hermes 很难说是个花几分钟装完就能上手的工具,它更像一套需要运行和维护的基础设施。如果只是想找个手机发消息就能控制的 AI 助理,OpenClaw 更简单——写个 SOUL.md,跑起来,接上 Telegram,完事。

Hermes 适合的场景是:有重复的、会演化的工作流,愿意让 agent 从使用习惯中积累经验,期待三个月后的 agent 和第一天不一样。

社交媒体上,网友分享的应用实例包括:商业自动化,把 CRM 和知识库连接;营销管理,内容生成和社群发布统一自动化;以及代码生成等软件工程项目。

随着这些技术杀入真实业务场景,一个事实越来越清楚:Agent 正在加速进入真正的生产环境。

对 Hermes,有人说它只是 OpenClaw 的「轻量级平替」,也有人说它是单一智能体的进化。但无论如何,Agent 的演进不会止步于 OpenClaw 设定的框架。

不管是 Hermes 还是 OpenClaw,现在的开源方案都留着各自的缺口。能让 agent 真正打穿主流、成为普通人日常基础设施的那个形态,大概还没出现。

复杂的记忆系统解决了,还有庞大的 AI 安全问题;给了 AI 手脚又要想着怎么给它上枷锁 Harness;安装太复杂、门槛太高——似乎总有各种受限的地方。

Hermes 这次确实给了 Agent 一个新方向。它让 Agent 从一个用完归零的工具,变成了能从失败里学到东西、能记住教训的一种搭档关系。有用户在 GitHub 评论区说,装了两周后,Hermes 开始主动问他「上次那个方法还要再用吗」——这大概是工具和产品经理都想听到的声音。