打开网易新闻 查看精彩图片

一个做AI监控产品的开发者,让Reddit爬虫每晚自动写200条回复。第二天他面对的是一团JSON,像从洗衣机里掏出一堆缠在一起的耳机线。

他的解法不是写个看板,而是造了一座桥——让AI swarm(智能体集群)通过MCP(模型上下文协议)直接往Notion里吐数据,每90秒一条,带评分、带时间戳、带发布状态。早上喝咖啡的时候,他只需要勾选"Posted"复选框。

从JSON地狱到Notion仪表盘

从JSON地狱到Notion仪表盘

Fliptrigga13(GitHub用户名)运营着一个自动化外联系统:爬虫实时抓取Reddit帖子,AI生成回复,打分筛选。这套流程跑一夜,产出200条潜在内容。

问题是:第二天他得手动扒拉JSON文件,逐条判断该不该发。

Notion是天然的选择——可筛选、可排序、可协作,还能打勾确认。但怎么把Python脚本里的数据塞进去?官方REST API当然能走,他选了一条更窄的路:MCP。

MCP(Model Context Protocol,模型上下文协议)是Anthropic去年推出的开放标准,想让AI工具像USB-C一样即插即用。Notion官方今年跟进,发布了notion-mcp-server。Fliptrigga13没直接调API,而是让Python脚本通过stdio(标准输入输出)跟MCP服务器对话——像两个人隔着管道喊话,而不是走HTTP敲门。

打开网易新闻 查看精彩图片

技术实现:子进程里的JSON-RPC

技术实现:子进程里的JSON-RPC

核心是一个叫NEXUS的Python桥接器。它启动notion-mcp-server作为子进程,用JSON-RPC 2.0格式发指令:

初始化时交换协议版本(2024-11-05)、声明能力、自报家门。之后每完成一轮AI循环,就调用notion_create_page,把Reddit帖子标题、AI生成的回复正文、0.0到1.0的评分、时间戳,以及一个未勾选的"Posted"复选框,写进Notion数据库。

整个链路:AI Swarm → cycles.json → MCP Bridge → notion-mcp-server → Notion DB。

没有HTTP请求,没有OAuth跳转,没有轮询。子进程的stdin/stdout就是高速公路,数据流单向倾泻。

为什么舍近求远?

为什么舍近求远?

REST API文档齐全、社区成熟,MCP还是新玩具。但Fliptrigga13的考量很具体:MCP把"工具调用"标准化了。今天接Notion,明天换Airtable或Linear,只要对方有MCP服务器,桥接器代码几乎不用改。

打开网易新闻 查看精彩图片

更隐秘的好处是上下文管理。MCP服务器维护着与Notion的连接状态,桥接器只需要发指令,不用管Token刷新、速率限制、错误重试。这些被封装在官方服务器的黑箱里。

代价也有:调试变难了。子进程崩溃不会直接抛到Python里,得盯着stderr。JSON-RPC的id要手动对账,丢一条就永远丢了。

实时指挥中心的真正价值

实时指挥中心的真正价值

现在他的工作流是这样的:AI凌晨3点写完第47条回复,评分0.83,自动出现在Notion里。他早上9点打开页面,按Score降序排列,前20条一眼看完,勾选"Posted"的才同步到Reddit。

人变成了最后一道闸,但闸的位置从代码里搬到了可视化界面上。

这个设计暴露了一个趋势:AI自动化正在从"全自主"退半步,变成"人机协作"——机器负责吞吐和草稿,人类负责审美和拍板。Notion在这里不是数据库,是缓冲带。

Fliptrigga13把代码开源在GitHub(nexus-notion-mcp),README里没写使用人数。但Notion MCP Challenge的提交列表里,这个项目是少数真正跑通生产场景的——不是Demo,是过夜跑200条的真实负载。

MCP生态现在有多少这样的桥接器在暗处运行?官方没公布数据,第三方也没法统计。但stdio传输的设计意味着它们不会出现在任何HTTP日志里,像地下河。