当你在同一句话里同时提到Anthropic的Claude和OpenAI的GPT,大多数人想到的是两家公司的竞争关系。但在微软的Copilot里,这两个模型正在被迫"组队"——而且用户完全不知情。
这不是什么技术融合的浪漫故事,而是一次被包装成"智能路由"的工程妥协。
一个提示词,两家公司买单
事情要从微软Copilot的底层架构说起。这个被塞进Windows 11、Office 365和Edge浏览器里的AI助手,本质上是个"模型调度员"。当你输入问题,系统会先判断:这个问题该扔给哪个模型?
过去这个选择是单选题:要么GPT-4,要么Claude 3.5,要么微软自家的模型。但今年3月的一次更新后,部分用户发现Copilot开始玩一种新把戏——把同一个复杂任务拆成两段,前半段扔给Claude,后半段扔给GPT。
技术社区The New Stack最先捕捉到这一现象。有开发者贴出了自己的Copilot响应日志:一个关于代码审查的请求,系统先用Claude 3.5 Sonnet分析代码结构,再调用GPT-4o生成修改建议。两个模型的输出被拼接在一起,用户看到的只是最终结果。
微软官方没有大张旗鼓地宣布这个功能。更新说明里只含糊地写了"改进多步骤推理能力"。但日志不会撒谎——HTTP请求里同时出现了anthropic.com和openai.com的API端点。
为什么微软要当"端水大师"
理解这个操作,得先看微软在AI领域的尴尬位置。
微软是OpenAI最大的金主,累计投资超过130亿美元,还签了多年独家云服务协议。但这份"婚姻"从一开始就充满张力:OpenAI想保持独立品牌,微软想把AI能力彻底"微软化"。ChatGPT和Copilot的功能重叠、定价打架,两家公司的高管在公开场合的表态越来越微妙。
与此同时,Anthropic的Claude在特定场景下确实更强。代码理解、长文本处理、安全性对齐——这些恰恰是微软企业客户最在意的东西。微软不可能无视Claude的存在,但直接官宣合作又会刺激OpenAI的神经。
于是就有了这个"隐形联姻":用户不知道背后换了模型,OpenAI不用公开承认被"混搭",微软则拿到了两家最好的能力。
一位接近微软Azure AI团队的人士透露,这种"模型混合"策略在内部被称为"能力路由"(capability routing),已经测试了至少6个月。核心逻辑很简单——用Claude处理需要深度推理的环节,用GPT处理需要创意生成的环节,用微软自研模型处理简单查询。成本、延迟、质量,三个维度动态权衡。
这对开发者意味着什么
如果你是直接调用API的开发者,这个变化其实和你关系不大。你该用哪家模型还用哪家,该付多少钱还付多少钱。
但如果你是Copilot的付费用户,事情变得有趣了。微软的Copilot Pro定价20美元/月,企业版30美元/月——这个价格低于单独订阅ChatGPT Plus(20美元)和Claude Pro(20美元)的总和。现在微软还在里面塞了第二个顶级模型,理论上你花一份钱,用了两家公司的服务。
当然,"理论上"是关键词。实际体验取决于微软的调度算法是否足够聪明。早期用户反馈呈现两极:有人发现复杂编程任务的输出质量明显提升,也有人抱怨响应变慢、风格不一致——"前半段像严谨的工程师,后半段像爱说废话的产品经理"。
更深层的问题是可控性。当你不知道背后是哪个模型在干活,调试和优化就成了一门黑箱艺术。有开发者在Hacker News吐槽:"我现在得先猜Copilot今天心情好调了哪家模型,才能决定怎么写提示词。"
行业正在滑向"模型无感知"时代
微软不是唯一这么干的公司。亚马逊的Bedrock早就支持多模型切换,谷歌的Vertex AI也在推类似概念。趋势很明显:大模型正在从"品牌商品"变成"基础设施原材料"。
这对OpenAI和Anthropic都不是好消息。如果用户最终只关心"这个AI助手好不好用",而不关心背后是GPT还是Claude,那么模型公司的品牌溢价会被压缩,议价权流向拥有分发渠道的巨头。
OpenAI显然意识到了这一点。Sam Altman最近频繁强调"ChatGPT是一个品牌,不是技术栈",就是在试图抵抗这种"管道化"趋势。但微软Copilot的这次操作,某种程度上是在拆台——它用行动证明:最好的用户体验,恰恰是让模型品牌消失。
值得玩味的是Anthropic的态度。这家公司一直以"AI安全"和"拒绝被收购"著称,创始人Dario Amodei多次公开批评OpenAI的激进策略。但现在,Claude的API被微软悄悄接入,成了Copilot的"隐形员工"。Anthropic既没有官宣合作,也没有公开反对,这种沉默本身就很说明问题。
一位前Anthropic员工在匿名论坛透露,公司高层对微软的合作"心情复杂":一方面需要Azure的渠道触达企业客户,另一方面又不想被贴上"微软附庸"的标签。"所以最好的策略就是不谈,让用户自己去发现。"
这种"被发现"的策略正在奏效。技术社区里,识别Copilot背后调用了哪个模型,已经变成了一种小众侦探游戏。有人专门写脚本分析响应风格,有人整理特征词库,还有人赌"这段话肯定是Claude写的,太正经了"。
微软大概乐见其成——免费的口碑传播,零品牌风险。
下一次当你用Copilot写代码,发现输出突然变"正经"了,可能不是它变聪明了,只是后台悄悄换了个打工仔。问题是:你真的在意吗?
热门跟贴