一个前特斯拉自动驾驶工程师,四个月融了两轮钱,要做机器人界的「Cursor」。他的判断是:物理测试正在拖垮整个行业。

融资节奏本身就在说话

打开网易新闻 查看精彩图片

Antioch的融资间隔短得反常。2026年1月刚拿450万美元种子轮,4月又宣布850万美元新融资。领投方换成A*和Category Ventures,Palantir的Shyam Sanker、Foxglove的Adrian Macnei以个人身份跟投。

这种速度通常只出现在两种场景:要么市场窗口极窄,要么团队想抢在竞争对手之前建立事实标准。考虑到机器人仿真这个赛道还有NVIDIA的Isaac Sim、微软的AirSim(已归档)、以及一批开源工具在跑,Antioch显然押的是前者。

CEO Harry Mellsop的履历是个信号。他参与过特斯拉Autopilot的开发——那套系统最早就是通过影子模式(shadow mode)在真实车队里跑仿真验证,而非全靠物理测试。这段经历很可能塑造了他对「仿真优先」的执念。

物理测试的成本结构有多离谱

机器人公司现在的测试流程,本质上是在复制制造业的笨重传统:

租场地、搭场景、放机器人、跑测试、重置硬件、再跑下一轮。一个仓库环境要布置数周,单次测试的边际成本几乎不变。更麻烦的是覆盖度——你搭了100个场景,真实世界可能有10万个边缘情况。

Antioch的拆解很直接:物理测试「昂贵、繁琐,且只能覆盖一小部分部署后可能遇到的场景」。这不是修辞,是行业通病。波士顿动力早期靠DARPA资助烧掉数亿美元,Figure AI被曝单轮融资后主要支出就是建测试场,这些都不是秘密。

仿真的诱惑在于指数级扩展。数字孪生(digital twin)可以并行跑数千个实例,一次点击重置环境,物理定律在云端可编程。问题在于,实现这种诱惑的技术栈进化太快,单个团队根本追不上。

「平台层」这个定位的狡猾之处

Mellsop把Antioch比作Cursor——那款让程序员无缝调用最新大模型的AI编程工具。这个类比值得拆开看。

Cursor的核心价值不是自研模型,而是消除「模型迭代」与「用户接入」之间的摩擦。Anthropic发新模型,OpenAI更新API,Cursor用户第二天就能用上,无需迁移代码、重配环境。

Antioch想复制这个逻辑到机器人仿真。物理引擎(如NVIDIA PhysX)、渲染管线(如Unreal Engine 5)、世界模型(world model,指能预测环境动态的神经模型)都在快速迭代, autonomy团队(自主系统开发团队)没精力逐个对接。Antioch的平台层承诺:你们专注算法,基础设施我来同步。

这是个聪明的市场切入策略。直接卖仿真工具,要和NVIDIA硬碰硬;卖「基础设施聚合」,则是把竞争对手变成供应商。风险在于,一旦底层工具的标准化程度提高(比如OpenUSD格式普及),平台层的价值会被压缩。

云仿真的技术债务藏在哪

Antioch的产品描述里有句关键话:「为任何类型的机器人创建数字孪生」。这个「任何」是卖点,也是坑。

机器人仿真的难度差异极大。轮式移动底盘的物理模型相对标准,足式机器人的接触动力学(contact dynamics)至今没有通用解法,软体机器人更是几乎无法仿真。Antioch的云端平台如果试图统一抽象层,必然在某些品类上牺牲精度。

更隐蔽的问题是仿真-现实差距(sim-to-real gap)。即便物理引擎再精确,传感器噪声、执行器延迟、材料磨损这些真实世界的「脏数据」很难完全建模。特斯拉Autopilot的影子模式之所以有效,恰恰是因为它用真实车队收集边缘案例,反向补全仿真覆盖不到的长尾场景。

Mellsop团队应该比任何人都清楚这个局限。他们现在的叙事是「消除拖慢开发的测试周期」,而非「完全替代物理测试」。这是一种务实的边界设定,但市场会不会按这个边界来定价,是另一回事。

850万美元能买到什么

按硅谷现在的烧钱速度,这笔钱大概支撑18-24个月。Antioch需要在这段时间内证明两件事:

第一,平台层的粘性。开发者是因为「懒得自己对接」而留下,还是因为「确实跑得更快」而留下,两种留存质量的差别会在续约率上暴露。

第二,从仿真到部署的闭环。如果Antioch只能帮客户「更快地发现bug」,而不能「更准地预测真实表现」,它的定价天花板会很低。反过来,如果能建立「仿真通过率」与「现场故障率」之间的统计相关性,就能向客户收取性能对赌式的费用。

第二个方向更性感,也更重。它需要Antioch积累跨客户的部署反馈数据,而这触及机器人公司的核心机密——没有哪家愿意把现场故障日志交给第三方平台。

行业格局的微妙变化

这笔融资的一个注脚是投资人名单里的Shyam Sanker。Palantir近年来猛推AIP(人工智能平台),核心卖点就是帮助工业客户整合异构数据流。Sanker的个人投资是否意味着某种生态协同,值得关注。

另一个信号是Foxglove的Adrian Macnei。Foxglove做的是机器人数据的可视化与调试工具,和Antioch的仿真平台在开发流程上是上下游关系。这种「工具链投资人」的出现,暗示机器人开发的基础设施正在分层专业化——不再是每个团队自建全套,而是采购最佳组件拼接。

如果这种分工真的成为主流,Antioch的窗口期可能比想象中短。平台层的护城河在于网络效应或数据飞轮,而仿真平台两者都弱:客户之间隔离(没有网络效应),部署数据回流困难(飞轮转不动)。唯一的壁垒是集成复杂度,而这恰恰是技术迭代最快侵蚀的东西。

一个未解的悖论

Antioch的叙事里有个张力:它既强调仿真的效率优势,又依赖「世界模型」的持续进步。但世界模型本身正是当前AI研究最不稳定的领域——从GAIA到Sora到各种物理世界模型,架构、能力边界、商用许可都在剧烈变动。

这意味着Antioch的平台层必须保持极高的适配弹性,而这种弹性本身需要大量工程投入。850万美元在仿真基础设施这个烧钱的赛道里,算不上宽裕。

Mellsop的赌注是:机器人公司的痛点足够痛,愿意为「不用自己追技术栈」付费。这个判断对不对,可能不取决于Antioch的产品做得多好,而取决于机器人行业本身能不能在接下来两年迎来真正的部署爆发——只有部署规模上去,测试效率的节省才值得被单独计价。

如果人形机器人、自动驾驶卡车、仓储自动化这些赛道继续停留在demo阶段,Antioch卖的就是维生素而非止痛药。这笔融资的 timing(时机选择),本质上是对行业节奏的押注。

当仿真平台承诺帮你省掉数百万物理测试开支时,它有没有告诉你:省下的钱可能以另一种形式花掉——比如,在真实部署后处理那些仿真没覆盖到的故障?