2024年11月,Anthropic扔出一个开源协议,当时没几个人当回事。12个月后,这个叫MCP的东西月下载量飙到9700万次,GitHub星标6.6万,OpenAI、谷歌、微软、AWS排着队接入。OAuth 2.0花了4年才走完的路,MCP一年跑完——而且全程带着"还没成熟"的标签。
这有点像USB诞生前的混乱年代:每家公司都有自己的鼠标接口,PS/2、串口、私有协议,插错就烧主板。然后USB出现了,一个口子通吃所有外设。MCP正在给AI工具做同样的事——不是让模型变聪明,是让模型"连得上"这件事不再痛苦。
一个协议,三种零件
MCP(Model Context Protocol,模型上下文协议)的技术骨架很朴素:基于JSON-RPC 2.0,借鉴了现代代码编辑器都在用的语言服务器协议(LSP)。它只定义了三样东西——Tools(工具)、Resources(资源)、Prompts(提示词)。
Tools让AI能"动手",Resources让AI能"读到东西",Prompts让AI知道"怎么开始对话"。
这套设计的狡猾之处在于:它不碰模型本身,只解决"模型怎么和外面世界握手"的问题。以前每接入一个新工具,开发者得写一遍定制代码,像给每台打印机单独写驱动。MCP说,不用了,你给我一个标准接口,我这边所有AI都能用。
结果是什么?作者自己跑的一个叫OpenClaw的代理,能读邮件、改表格、触发爬虫、发GitHub、查天气、写记忆文件——不是靠他为每个服务写集成代码,而是每个服务暴露了MCP接口,代理自己就懂怎么用。
同个代理,换个会话就能连PostgreSQL数据库,再换个会话又能进Notion工作区。不用重新训练模型,不用新写集成代码,指一下新的MCP服务器就行。这就是USB承诺的即插即用,现在兑现到AI身上了。
从"Anthropic的玩具"到行业基建
2025年3月,OpenAI官宣接入MCP。Sam Altman的原话是:「人们喜欢MCP,我们很兴奋能在全线产品里支持它。」这话从竞争对手嘴里说出来,分量不一样。
一个月后谷歌DeepMind跟进。然后微软、AWS陆续表态。到2025年12月,Anthropic把MCP捐给了Linux基金会旗下的Agentic AI Foundation,联合创始方包括OpenAI和Block(Jack Dorsey那家公司),AWS、谷歌、微软、Cloudflare、Bloomberg站台当支持成员。
这时候MCP已经不再是某个产品的功能,而是行业基础设施。
这种 adoption 速度在历史上很少见。OAuth 2.0走到类似渗透度用了约4年,OpenAPI花了约5年。MCP 12个月搞定,而且全程公开承认"我们还没做完"。这种"不完美但先用起来"的姿态,反而加速了必须发生的对话——就像vibe coding(氛围编程)那波,工具太好用了,大家等不及它先完美。
争议成了燃料。有人在GitHub上吵安全模型,有人质疑权限粒度,但这些讨论没有拖慢 adoption,反而让协议更快迭代。2025年6月推出的Streamable HTTP传输机制,解决了早期版本里一些明显的性能瓶颈。
为什么是现在?为什么是这个协议?
一个背景:AI工具正在从"聊天窗口"变成"能动手干活的代理"。但代理的能力边界,取决于它能连上什么系统。如果连每个系统都要定制开发,代理经济就起不来——成本太高,速度太慢。
MCP掐中了这个痛点。它不解决"AI有多聪明",只解决"AI能碰到多少东西"。这个定位让它避开了和模型厂商的直接竞争,反而成了所有人的公约数。
OpenAI需要它,因为用户想让ChatGPT真的"操作"电脑而不只是"建议"。谷歌需要它,因为Gemini要打进企业工作流。微软需要它,因为Copilot得连上Office之外的万千系统。AWS需要它,因为云服务的价值在于能 orchestrate 多少下游资源。
连Block(Square的母公司)都出现在创始成员名单里,说明金融支付场景也在押注这个标准。Bloomberg的加入更直接——金融数据是AI代理最馋的高价值资源,但也是最难拿到的,标准协议能降低信任建立成本。
2025年12月之后的MCP,技术上归Linux基金会管,商业上没人能独家控制。这种"去中心化但集中维护"的结构,是基础设施成熟的标志。就像TCP/IP不归任何公司,但所有人都在用。
对开发者意味着什么
如果你在做AI应用,MCP改变了成本结构。以前集成一个外部工具,可能要几天到几周;现在如果对方有MCP服务器,几行配置就能连上。这种边际成本的骤降,会让"AI能做什么"的边界快速外扩。
作者举了个自己的例子:用MCP搭了一套自动化工作流,找那些没有网站的小企业。流程里每一步——发现线索、验证信息、记录结果——都通过MCP服务器完成,没有一处是硬编码的集成。换数据源、换存储位置、换通知渠道,改配置就行,不用重写逻辑。
这种灵活性在以前的AI集成里很难实现。要么你得用某个平台的专有SDK,被锁定在生态里;要么你得自己维护一堆脆弱的API封装。MCP给了第三条路:标准接口,自由组合。
当然,还有问题没解决。权限管理还在讨论中,跨服务器的身份验证没有统一方案,某些场景下的延迟比直连API要高。但这些是"用起来之后发现的问题",不是"阻止你开始用的问题"——对早期协议来说,这是健康的疼痛。
9700万月下载量、1万多个活跃服务器、6.6万GitHub星标——这些数字说明MCP已经过了"会不会被采用"的阶段,进入"怎么用得更好"的阶段。当OpenAI和谷歌都愿意把竞争对手发明的协议接进自家核心产品,标准战争其实已经结束了。
接下来要观察的是:哪个垂直领域会最先出现MCP-native 的应用架构?以及,当"连得上"不再是瓶颈,AI产品的竞争会不会重新聚焦回"做得对"——也就是代理的决策质量本身?
热门跟贴