Ann Miura-Ko在X上发了条动态,硅谷风投圈瞬间传开。她的判断很直白:2026年,那种"套个壳接个接口就敢叫颠覆式创新"的AI创业模式,彻底行不通了。

市场已经被基础AI包装器塞爆。现在能拿到钱、能跑起来的项目,都在往一个反方向走——深层的、基础设施级的实用价值。

打开网易新闻 查看精彩图片

从"生成"到"编排":工程范式的硬切换

第一波生成式AI玩的是内容生产。下一波的核心词变成了"编排"(Orchestration)。

用户不缺浏览器里多一个聊天标签页。他们要的是能整块砍掉某类工作的自主系统。如果你的应用只是把用户文本丢给大语言模型(Large Language Model,简称大模型)再打印结果,你没有技术护城河——这只是个功能,平台方迟早会原生集成。

真正在跑通的产品,正在从简单的请求-响应循环,转向智能体基础设施(Agentic Infrastructure)。代码得自己处理状态、记忆、错误恢复、后台工具执行。

今年1月部署到Railway生产环境的secure-pr-reviewer这个GitHub应用,就是这个架构转向的典型案例。它不是简单地把代码片段扔给API,而是用TypeScript和Node.js搭了套健壮的后端:监听Webhook、解析仓库的抽象语法树(Abstract Syntax Tree,一种代码结构表示方式)、跑AI安全审计、再精准定位到Pull Request的具体行号去评论。

这套事件驱动的智能体架构,核心逻辑用Node.js写出来大概长这样——

代码先监听两个关键事件:Pull Request被打开、或者代码有更新。触发后,不是直接扔给AI,而是先去GitHub拉取完整的代码差异(diff),给足上下文。然后AI服务做深度推理和安全评估,最后智能体自主把结论塞进人类的工作流里。

整个流程没有人在中间点确认。状态管理、错误处理、工具调用,全在后台自己跑。

为什么"薄UI+厚API"模式必死

这个判断背后有个残酷的算术题。OpenAI、Anthropic、Google这些平台方,产品迭代速度远快于任何第三方包装器。你今天做的"智能写作助手",明天可能是ChatGPT的一个系统提示词。

更麻烦的是用户预期已经被拉高。早期大家惊艳于"AI能写东西",现在要看的是"AI能替我走完整个工作流"。

智能体基础设施的门槛体现在几个硬指标上:能不能跨会话保持上下文记忆?出错时能不能自己重试或降级?调用外部工具时怎么保证安全和权限隔离?这些都不是前端调个接口能解决的,需要后端架构的系统性重构。

secure-pr-reviewer的例子很具体——它必须理解代码的抽象语法树结构,才能定位到具体函数和行号;必须处理GitHub的Webhook签名验证,防止伪造请求;必须在AI审计超时时有降级策略,不能卡住开发者的PR流程。

每一层都是工程深度,每一层都是别人抄不走的东西。

Minimum Viable Company vs. Minimum Viable Product

Miura-Ko和一线基金传出来的信号很明确:别只交MVP了,要交MVC(Minimum Viable Company,最小可行公司)。

这个措辞变化很微妙,但指向完全不同的尽职调查标准。MVP时代,投资人看的是产品有没有人用。MVC时代,他们要看的是:你有没有可持续的获客渠道?有没有 defensible 的技术栈?有没有能在平台方挤压下存活的空间?

基础AI包装器的死亡螺旋已经很明显——获客成本被平台方的免费层压制,技术壁垒被对方的下一次更新抹平,留存率随着用户"试试新鲜感消退"而崩塌。

反过来,做编排层和智能体基础设施的团队,在谈的是完全不同的合同:按工作流节点收费、按处理的数据量收费、按节省的人力工时收费。这些商业模式的unit economics(单位经济模型)经得起拆解。

给 builder 的实操清单

如果你正在或者打算做AI产品,几个可以立即检查的点:

第一,你的系统有没有状态?用户关掉浏览器再打开,上下文还在不在?还是每次都要重新交代背景?

第二,错误处理是显式的还是隐式的?API超时、返回格式异常、第三方服务宕机,你的代码是优雅降级还是直接抛异常给用户?

第三,工具调用有没有权限边界?智能体能访问什么、不能访问什么,有没有审计日志?

第四,你的工作流是单轮的还是多轮的?能不能根据中间结果动态调整下一步?

这些问题的答案,决定了你做的是个功能还是家公司。

代码层面的护城河长什么样

回到secure-pr-reviewer的代码片段,有几个值得细品的工程选择。

它用Probot框架处理GitHub集成,这是专门做GitHub App的Node.js库,省掉大量OAuth和Webhook的 boilerplate。但核心差异点在`analyzeCodeSecurity`这个服务——它不是简单包装OpenAI的API,而是有自己的代码解析、上下文组装、结果格式化逻辑。

这意味着即使明天GitHub自己出了AI安全审查功能,这个应用仍然有生存空间:它可以支持自定义安全规则、对接内部代码规范、集成企业内部的漏洞数据库。这些是平台方不会做的长尾需求。

更关键的是部署选择。Railway作为基础设施,提供了从代码到运行的无缝管道,但应用本身的架构设计让它可以相对容易地迁移到其他平台。没有深度绑定某个特定云服务的专有API。

这种"可迁移的复杂性"本身就是壁垒——抄你的人得理解你的架构,而理解本身就需要时间。

风投话语权的转移

Miura-Ko的表态之所以被快速传播,因为她代表的是Floodgate Fund的立场,而这家基金在早期阶段的投资记录足够硬。当这个级别的投资人开始公开说"某某模式结束了",市场会加速出清。

2024年到2025年初,AI创业的主流叙事还是"快、轻、验证"。大量团队用Vercel模板+OpenAI API+Stripe收款,两周上线一个"AI某某"产品。那批项目现在的存活率,可能是科技史上最低之一。

2026年的新叙事是"深、重、编排"。不是不做前端体验,而是前端体验必须建立在足够厚的后端基础设施上。用户感知到的"简单",背后是系统设计的复杂。

这个切换对工程师背景的团队是利好。纯产品或运营出身的创始人,在MVP时代可以靠洞察和速度取胜;MVC时代需要搞定分布式系统、事件驱动架构、安全模型这些硬骨头。

平台方的挤压与缝隙

一个自然的问题是:既然OpenAI、Anthropic、Google都在快速迭代,留给第三方的基础设施空间到底有多大?

答案是"足够大,但形状变了"。平台方会吃掉标准化的、通用的能力——比如基础写作、代码补全、图像生成。但他们不会做的是:特定行业的合规审查、企业内部系统的深度集成、需要多步骤状态管理的复杂工作流。

这些缝隙不是临时性的,而是结构性的。因为平台方的核心约束是"服务十亿用户的通用产品",而企业客户的真实需求是"服务我这条特定业务流程的定制方案"。

智能体基础设施的价值,就在于把平台方的通用能力,编排成特定场景的自动化工作流。这个编排层本身,就是产品。

secure-pr-reviewer选择的代码安全审计场景很聪明——GitHub是开发者的高频工作场所,PR review是明确的痛点,安全合规是企业愿意付费的刚需。三个条件叠加,才能支撑一个独立产品的存在。

技术选型的长期赌注

从代码片段也能看出一些技术倾向:TypeScript + Node.js的后端,Probot做GitHub集成,Railway做部署。这些选择本身不是决定性的,但反映了一个思路——用成熟的、有生态的工具链,而不是追最新的实验性技术。

在智能体基础设施这个领域,稳定性比炫技重要。你的系统要长时间运行,处理大量事件,出错成本很高。选一个你团队能深度掌控的技术栈,比用一个"更先进"但不熟悉的框架更务实。

另一个隐性选择是事件驱动架构(Event-Driven Architecture)。这不是唯一可行的方案,但对于需要异步处理、高并发、可扩展的智能体系统,它提供了清晰的边界:每个事件处理器是独立的,可以单独测试、部署、扩展。

代码里`app.on([...])`的注册方式,就是把GitHub的Webhook事件映射到具体的处理函数。这种解耦让系统可以逐步复杂化,而不会变成一团乱麻。

从"能用"到"敢用"的信任鸿沟

最后想提一个容易被技术人忽略的点:智能体基础设施要跨越的,不只是工程复杂度,还有信任复杂度。

用户凭什么敢让一个系统自动操作他们的代码库、数据库、业务流程?这需要可观测性(我能看到系统在做什么)、可干预性(我能随时暂停或回滚)、可审计性(我能事后追溯每个决策)。

secure-pr-reviewer在代码层面做了部分回应:它只在发现漏洞时才发表评论,而不是每条PR都刷屏;它用Markdown格式输出,让人类 reviewer 能快速理解;它通过GitHub的原生评论机制介入,而不是跳转到外部系统。

这些设计选择都在降低信任门槛。技术架构再优雅,用户不敢用就是零。

2026年的AI创业,本质上是在回答一个问题:当基础模型能力变成公用事业,你的价值创造发生在哪一层?Miura-Ko和一线基金的答案是——发生在把模型能力转化为可靠、自主、可信任的业务系统的编排层。这个判断会错吗?还是说,"氛围编程"的退潮只是开始,更深层的行业洗牌还在后面?