2026年开年,硅谷风投的LP(有限合伙人,即基金出资方)们正在做一件过去三年想都不敢想的事:把OpenAI的份额挂牌转让,同时给Anthropic的C轮递TS(投资意向书)。

这不是小范围波动。据The Information援引三位直接参与交易的人士,过去90天内,至少三家管理规模超50亿美元的基金,将OpenAI的老股估值锚点从1570亿美元下调至1200亿-1300亿美元区间。同期,Anthropic的二级市场估值溢价幅度达到35%,部分早期份额甚至出现竞价。

资本的天平倾斜,从来不是一夜之间发生的。

1570亿到1200亿:OpenAI的估值锚点开始松动

1570亿到1200亿:OpenAI的估值锚点开始松动

OpenAI的估值神话始于2023年。那年年初,微软追加100亿美元投资,将这家公司的估值推上290亿美元;年末,Thrive Capital领投的收购要约,直接把数字翻到了800亿。2024年的1570亿,是巅峰——也是转折点。

转折的信号藏在两个细节里。第一,2024年9月的融资轮中,OpenAI首次允许员工出售老股,而非单纯增发新股。这通常是公司流动性压力或内部信心分歧的征兆。第二,同轮融资的条款被曝光:投资者获得的保障条款(ratchet)比前轮融资更厚,意味着OpenAI对估值下跌做了更充分的预案。

「我们不是在看空AI,我们是在重新定价平台风险。」一位要求匿名的硅谷风投合伙人在2025年Q4的LP信函中写道。他的基金在2023年通过SPV(特殊目的载体)间接持有OpenAI股份,2025年底已减持40%。

减持的逻辑很直接:OpenAI的API(应用程序接口)定价权正在瓦解。2024年,GPT-4 Turbo的输入token价格从0.03美元降至0.01美元,降幅67%;输出token从0.06美元降至0.03美元。价格战由Google Gemini和Anthropic Claude发起,OpenAI被迫跟进。更麻烦的是,企业客户的续约谈判中,「多模型备份策略」成为标配——没人愿意把核心产品绑在单一供应商身上。

API降价是结果,不是原因。原因是OpenAI不再拥有唯一的护城河。

Anthropic的35%溢价:安全牌为什么值钱了

Anthropic的35%溢价:安全牌为什么值钱了

Anthropic的崛起路径,和OpenAI几乎镜像。同样由OpenAI前高管创立(Dario和Daniela Amodei兄妹),同样押注大语言模型,同样拿到Google和Amazon的巨额云信用额度。但Anthropic从第一天就给自己贴了一个标签:AI安全。

这个标签在2023年还被嘲笑为「道德绑架」「拖慢进度」。到2025年,它成了B端销售的敲门砖。

「我们的合规团队现在把模型可解释性(interpretability)写进了RFP(需求建议书)的必选项。」一位财富500强企业的技术采购负责人告诉我。他的公司2024年主要用GPT-4,2025年Q3将Claude 3.5 Sonnet的调用比例提升到60%。切换的原因不是性能——Claude在代码生成上确实更强——而是Anthropic愿意签署更严格的责任条款,并开放部分训练数据审计权限。

OpenAI的安全争议在2024年集中爆发。5月,超级对齐团队(Superalignment Team)负责人Ilya Sutskever和Jan Leike离职,Leike在X上公开批评公司「把产品漂亮置于安全之上」。11月,前员工Suchir Balaji自杀身亡,其生前对OpenAI版权实践的指控被《纽约时报》诉讼案引用。这些事件叠加,让「OpenAI安全吗」从一个技术问题,变成了董事会层面的风险评估项。

Anthropic的Claude系列恰好踩在这个时间窗口上。2024年3月的Claude 3 Opus,在多项基准测试中与GPT-4持平;6月的3.5 Sonnet,以更快的响应速度和更低的幻觉率(hallucination rate,即模型编造事实的概率)赢得开发者口碑;2025年的3.5 Haiku,直接把轻量模型的性价比拉到了新维度。

更关键的是,Anthropic没有OpenAI的结构性包袱。

它没有微软这个既是最大股东又是最大竞争对手的复杂关系(微软的Copilot和OpenAI的产品线重叠度越来越高)。它的非营利架构虽然也被质疑,但至少没有OpenAI那种「利润上限公司」(capped-profit)的治理迷宫。它的创始人没有Sam Altman那种 celebrity(名人)光环,但也意味着更少的个人风险溢价。

开发者用脚投票:从「GPT-first」到「模型即插拔」

开发者用脚投票:从「GPT-first」到「模型即插拔」

资本流动的背后,是开发者生态的迁移。2023年的AI应用层创业,默认选择是「GPT-first」——先基于OpenAI的API做MVP(最小可行产品),验证需求后再考虑多模型。2025年,这个顺序被颠倒了。

「我们现在架构设计的第一原则,是模型可替换。」一位2024年成立的AI coding工具创始人说。他的产品同时接入GPT-4o、Claude 3.5 Sonnet和Gemini 1.5 Pro,根据任务类型和实时成本动态路由。2023年,这种设计被视为过度工程;2025年,它成了融资路演时的标准话术。

这种「模型即插拔」趋势的直接受益者,是中间件层。Vercel的AI SDK、LangChain、LlamaIndex等工具,2024年的更新重点全是「多模型统一接口」。它们的存在,进一步降低了切换成本——开发者不需要重写代码,改一行配置就能从GPT切到Claude。

OpenAI的应对是产品矩阵扩张:GPTs商店、Sora视频模型、SearchGPT搜索、Operator代理。但每多一条产品线,就多一个资源黑洞,多一份与合作伙伴(微软、苹果)的利益冲突。2025年1月,苹果将Siri的底层模型从GPT-4切换到自家微调模型的消息传出,OpenAI股价(此处指其私有市场的交易价格)当日下跌8%。

生态位的挤压,比技术落后更致命。

2026年的关键变量:推理成本与监管框架

2026年的关键变量:推理成本与监管框架

投资者轮换的叙事,还有两个未被充分定价的变量。

第一个是推理成本(inference cost)的下降曲线。Anthropic在2024年底发布了新的模型压缩技术,将Claude 3.5 Sonnet的推理成本再降40%。OpenAI的对应方案是o1系列——用更长的思考时间换取更高的输出质量,但成本结构完全不适合高频调用场景。在企业客户的TCO(总拥有成本)测算中,这正在成为决定性因素。

第二个是监管。欧盟AI法案2025年进入执行阶段,美国各州的AI立法在2024年密集出台。Anthropic的安全研究团队规模(约占总员工数的15%)和公开发表的技术论文数量,让它在监管对话中拥有更多筹码。OpenAI的游说支出在2024年达到510万美元,但「说得多」和「做得透明」是两回事。

「如果2026年出现第一起由大模型引发的重大安全事故,监管框架会瞬间收紧。」一位在DC(华盛顿特区)从事科技政策咨询的律师预测。他的客户包括两家同时持有OpenAI和Anthropic股份的基金,他们正在重新评估组合的风险敞口。

资本轮换不等于OpenAI的终结。1570亿到1200亿的估值回调,放在任何其他科技公司身上都是灾难;对OpenAI而言,可能只是从「神话」回归「顶级公司」的正常化过程。但它确实标志着一个阶段的结束:那个「只有OpenAI值得押注」的阶段。

「我们还在用GPT-4o,但续签合同的时候,法务部第一次要求加入『供应商替换预案』条款。」一位SaaS公司的CTO在2025年底的产品经理聚会上说。他的公司年ARR(年度经常性收入)超过5000万美元,AI功能贡献了其中12%的增长。

2026年,当你评估一家AI公司的投资价值时,你会把「多模型兼容性」作为核心指标吗?