「用LLM驱动路由逻辑,不只是生成文本。」——一位正在GitHub直播写代码的学生,在第一天就踩到了所有想做AI自动化的人都会遇到的坑。

他在做什么

打开网易新闻 查看精彩图片

一位自称初学者的开发者启动了一个60天挑战:每天搭建一个真实可用的AI工作流,全部代码公开。第一天就瞄准了最实在的痛点——邮件自动分拣。

不是Demo,是真实跑在Gmail、Slack、Airtable之间的生产级流水线

这套系统的运转逻辑

流程比想象中直接:Gmail收到新邮件 → n8n触发 → Claude读完全文 → 吐出JSON决策包 → 分流执行。

这个JSON包含五个字段:紧急程度、分类标签、情感倾向、内容摘要、建议回复。n8n的Switch节点据此分流:紧急事项秒推Slack警报,常规工单进Airtable存档+通知,FAQ类直接由Claude代回,零人工介入。

听起来像标准的RPA(机器人流程自动化)教科书案例?难点藏在细节里。

真正磨人的是JSON稳定性

开发者原话:「让Claude每次返回一致、可解析的JSON,比想象中难得多——一旦格式崩了,整条链路全崩。」

Prompt结构的重要性被严重低估。不是模型不懂任务,是输出的确定性难以锁定。这对所有想把LLM嵌进工作流的人来说,都是第一道门槛。

技术栈很克制:n8n做编排,Claude API做决策大脑,Gmail/Airtable/Slack当四肢。没有自建模型,没有复杂中间件。

GitHub仓库已公开,59个build待更新。