你刚搭完一个"智能客服"工作流:用户提问→大模型理解→查知识库→生成回答。看起来跑通了。直到产品经理说:"要是模型不确定,得让人工看一眼呢?"你愣住——n8n里怎么塞一个"暂停等人"的节点?

这不是功能缺失,是底层设计哲学的错位。传统自动化工具为"确定性的如果-那么"而生,AI工作流却是"不确定性的推理-决策-执行"循环。当工作流开始长出自己的"脑子",旧工具就成了绑在脚上的沙袋。

打开网易新闻 查看精彩图片

从插件补丁到原生设计

作者花了不少时间在n8n上搭AI流程。初期够用。后来需求变了:代理需要推理并调用工具,文档检索要嵌入执行流,关键操作前得有人工把关,还要能看清模型到底干了什么、为什么、什么时候。

n8n、Zapier、Make都不是为这种场景设计的。它们擅长规则明确的自动化——A触发B,B执行C,路径清晰。一旦工作流变成AI原生,你在跟平台搏斗,而不是在搭建。

Heym的解法是从零开始:自托管、源码开放、单一运行时覆盖AI工作流的全套需求——代理、检索、审批、可观测性、调度,还能把工作流本身暴露成AI助手可调用的工具。Docker Compose一键部署,数据不出栈。

技术实现上,工作流引擎把画布编译成有向无环图,线程池并发执行独立节点。流式模式让每个节点完成就发事件,前端实时刷新。代理节点内置完整的工具调用循环:跑Python工具、连外部MCP服务器、委派子代理、调用其他工作流当工具。上下文用到80%时自动压缩历史,防止长任务跑到一半哑火。

把"人"写进工作流的语法

作者最坚持的设计是这个:人工介入(HITL)不是变通方案,是工作流的基础原语。

AI输出有真实后果——草拟的邮件、生成的报告、下游依赖的数据转换。HITL节点能在任意点暂停执行,生成一次性公开审核链接,然后等待。审核人无需Heym账号,可接受、编辑或拒绝。执行从精确存储的快照恢复,同一次运行能暂停多次。

这改变了工作流的设计语法。不是"先自动化,再想办法塞个人工审批",而是"人机协作是默认选项"。

文档检索同理。Heym拒绝"外挂一个向量数据库API"的补丁方案——那样你得维护两套系统、两处调试、两条追踪链。它把向量存储管理内嵌:上传文档、创建存储、语义搜索直接连线进工作流。完整管道跑在单一工作流里,出现在单一追踪记录中。

双向流动的工具生态

每个Heym实例自带MCP服务器。你搭的任何工作流,都能直接暴露成Claude Desktop、Cursor或其他MCP客户端可调用的工具。反过来,代理节点也能连接外部MCP服务器获取工具能力。

这形成双向通道:Heym既产出工具,也消费工具,能力在生态里流动。

可观测性被当作信任的前提。Traces标签自动记录每次执行;Evals标签支持创建测试套件,同时跑多模型评估。作者的原话是:"如果你无法检查AI工作流做了什么,就无法在生产环境信任它。"

这套设计的代价是放弃"无代码拖拽一切"的幻觉。Heym承认AI工作流的复杂性,选择给专业用户更底层的控制,而非给普通用户更光滑的表面。