打开网易新闻 查看精彩图片

Pinterest 的工程团队最近干了一件事:把公司内部几十个 AI 工具接口,统一塞进了一套叫 MCP 的"插座系统"里。

以前工程师想让 AI 查个日志、改个配置,得挨个对接不同系统的 API,像去不同国家旅游要带一堆转换插头。现在 MCP 相当于一个万能插座,AI 智能体插上去就能调用 Presto、Spark、Airflow 这些内部工具,还能直接访问实时数据。

这套架构的核心是一组云托管的 MCP 服务器,每个只干一件事——查数据的就是查数据的,跑任务的就是跑任务的。这种"分灶吃饭"的设计,既防止 AI 拿到太多无关信息(上下文膨胀),也方便管权限:谁能让 AI 动生产环境,谁只能查只读数据,分得清清楚楚。

所有服务器都在一个中心注册表里登记在册,工程师在聊天窗口或 IDE 里@一下 AI,它先去注册表"查户口"——这服务器靠谱吗?你有权限用吗?——确认完了才动手。2025 年 1 月的数据是:每月 6.6 万次调用,844 个活跃用户,省下来约 7000 个工时。

Pinterest 没让 AI 完全放飞。涉及敏感操作时,系统会弹出一道"人工闸":AI 可以提方案,改不改得等人点个头。安全层面搞了双层验证——人进系统用 JWT,服务之间走服务网格身份,高权限操作锁死在特定团队手里。

这套东西从概念验证到生产级落地,给想搞企业级 AI 自动化的公司提供了一个可抄的作业:重点不是让 AI 说话多好听,而是让它能安全、可靠地摸到真实的系统和数据。

Pinterest 的工程师在内部博客里提到,有个用户反馈说,以前排查一个故障工单平均要 40 分钟,现在 AI 直接生成上下文摘要,自己只要花 5 分钟确认和决策——这 35 分钟的差距,就是 MCP 省出来的。