GitHub上挂着47个MCP服务器,平均星标不到10颗。不是代码烂,是没人找得到。
这是SkillFlow团队过去6周"公开建造"(building in public)时反复看到的场景。他们给36个awesome-list提交了PR,发现社区热情得反常——每个开发者都在问同一个问题:这东西在哪能搜到?
AI智能体(AI Agent)的生态正在以周为单位膨胀。CrewAI、LangGraph、AutoGen轮番更新,MCP(模型上下文协议,Model Context Protocol)和A2A(Agent-to-Agent)协议相继登场。但基础设施没跟上:工具发现(discovery)环节几乎空白。
类比一下:这很像2008年iPhone刚发布时的应用市场。开发者做出了东西,用户不知道去哪找;找到了也不敢装,怕中毒;装上了发现不兼容自己的系统。App Store解决的不是"有没有应用",而是信任、筛选和匹配。
MCP解决了"怎么连",但没解决"找谁连"
MCP确实是个关键突破。它统一了智能体调用外部工具的方式——以前每个框架各讲各的方言,现在有了普通话。但协议只是管道,管道里流什么水,没人管。
SkillFlow团队列了四个具体痛点:
信任指标缺失。你怎么知道某个MCP服务器不会偷数据?GitHub星标能刷,README能抄,安全审计报告?大部分项目没有。团队尝试给每个工具打安全分,看代码质量、维护频率、依赖漏洞。
兼容性矩阵混乱。这个技能支持Claude吗?GPT-4呢?你用的LangChain版本?多数工具文档不写这些,用户只能自己试,试错成本极高。
版本追踪没人做。底层大模型能力一变,技能可能静默崩溃。比如某工具依赖GPT-4的函数调用格式,OpenAI一更新,它可能就失效了。但用户和开发者都缺乏感知渠道。
企业级治理空白。团队采购需要审批流、审计日志、技能白名单。个人开发者用不到,但企业买家每张订单都先问:"安全怎么处理?"
公开建造6周,三个反直觉发现
SkillFlow从2月开始在社交平台直播开发过程,收获了意料之外的反馈。
第一个发现:社区比想象中开放。他们给36个awesome-list发PR,通过率极高。「MCP社区是我见过最欢迎新人的技术圈」,团队成员在更新里写道。这和区块链协议早期的封闭感完全不同。
第二个发现:企业采购的决策链极长,但触发点极短。每个潜在合作伙伴的第一句话都是安全,第二句是合规,第三句才会问到功能。反过来,一旦安全信任建立,功能谈判反而很快。
第三个发现:长尾工具的生存状况比头部更惨。明星项目可能有几百星,但绝大多数MCP服务器卡在个位数。不是质量差,是分发渠道被头部挤占,新人完全没有冷启动机会。
团队尝试的定位是"聚合层"而非"替代者"——不另起炉灶做新注册表,而是把现有分散的源(GitHub、官方注册表、社区awesome-list)统一索引,加上筛选和治理层。
生态早期,标准比产品更重要
SkillFlow团队认为,当前最缺的不是更多工具,而是描述工具的共同语言。
一个MCP服务器需要什么输入、输出什么格式、依赖哪些模型能力、维护状态如何——这些信息现在散落在README、Discord对话、GitHub issue里,没有结构化标准。团队正在推动一种"技能描述规范",让机器可读、可比较、可验证。
这和当年npm的package.json、Docker的Dockerfile类似:协议解决"能跑",标准解决"怎么知道能跑"。
他们的赌注是:MCP生态会经历类似移动应用市场的整合期,从"野蛮生长"到"平台治理"。现在入局做筛选层,比等市场成熟后再切入更容易建立心智。
风险也很明显。MCP本身还在快速迭代,协议变动可能让早期积累的标准失效;巨头(OpenAI、Anthropic)随时可能推出官方市场;开发者习惯免费开源,付费筛选服务的商业模式未经验证。
但团队的数据给了一些信心:6周内自然流量增长中,40%来自"某某MCP工具怎么用"这类长尾搜索——说明需求真实存在,只是没被满足。
如果你正在做MCP相关开发,你现在的工具发现流程是什么?GitHub搜索、Twitter刷帖、还是靠同事口口相传?
热门跟贴