2025年底,李飞飞创办的World Labs推出了第一个产品Marble,你只要输入一段文字,比如“海边日落时孩子堆沙堡”,它就能生成一个完整的3D虚拟场景,这个场景不是靠拼贴出来的,也不是用传统建模软件一点点画的,而是AI自己从零开始推理出来的,里面有光影效果和物理规则,还能让人在里面自由走动,感觉就像真的一样。
2026年2月,这家公司刚完成一轮10亿美元的融资,英伟达、AMD和Autodesk这些大公司都投了钱,这轮融资金额创下了AI初创企业的纪录,这些公司愿意投资是因为Marble不只是一种玩具,它指向一种更底层的能力——空间智能,李飞飞提到,人类大脑有两个核心能力,一个是语言,另一个是空间感知,现在的大模型已经解决了语言问题,但空间智能方面一直没有突破,动物不需要说话也能判断距离、躲避障碍物并找到回家的路,这就是空间智能的体现。
World Labs的团队背景很扎实,创始人李飞飞以前是斯坦福AI实验室的负责人,核心成员Ben Mildenhall一起开发了NeRF技术,Justin Johnson在计算机视觉方面经验丰富,公司于2024年9月成立,目标明确,要让AI不仅能识别图像和语音,还要理解空间概念、执行动作并与人互动,Marble作为他们的首个产品,构建的3D世界可以保存下来,允许多人同时进入并持续更新,这与Meta或Google之前仅生成单个物体或片段的方案不同,Marble能够支撑起完整的虚拟环境。
英伟达的Jim Fan公开说过,空间智能成为计算机视觉和实体AI的下一个关键领域,他们已经把芯片平台与World Labs的训练框架连接起来,Autodesk加入进来更表明这一点,以后盖楼、造汽车、拍电影可能不用先画图纸再建模,设计师提出“我要一个带天窗的木结构咖啡馆”,AI马上生成可以交互的3D空间,还能模拟承重、采光和人流走向,这个过程比现在快得多,也灵活很多。
有人可能会觉得这只是高级的VR技术,其实不是这样,VR是把人放进别人造好的世界里,而Marble让AI自己构建一个世界,它要处理物体遮挡、材质反射和重力影响,不同角度看到的细节还得保持一致,这对AI来说很困难,以前的模型经常出现穿模或光影混乱的问题,Marble基本解决了这些,我看过演示视频,一只虚拟狗跑过沙地时留下脚印,沙子也会跟着变形,这不是预设的动画,而是实时计算出来的结果。
现在它还不能在手机上运行,生成一个中等规模的场景需要很多GPU一起计算,花上几分钟时间,但英伟达和AMD都成了股东,说明硬件方面已经在推进了,未来很可能会出现专门为空间推理设计的芯片,就像过去为图像识别开发出TPU那样。
还有一个没人提但很现实的问题,如果AI生成的虚拟空间足够真实,那它属于谁,用户输入一句话就产出一个海岛小镇,这算原创作品吗,版权归平台、用户还是AI本身,现在法律根本没有准备,连“数字地产”这个词都还没有定论。
李飞飞在TED演讲中说过,大语言模型教人工智能怎么思考,空间智能教它怎么存在,这话听起来有点抽象,但仔细想想确实有道理,一个只会对话的人工智能,永远停留在屏幕里边,而能理解空间的人工智能,才有可能真正进入我们的生活,比如帮助老人规划方便的家居环境,或者让机器人在仓库里自己寻找货物、避开障碍、配合工作。
目前Marble还在内测阶段,只对部分研究机构开放,投资人的真金白银已经表明态度,他们相信空间智能不是锦上添花,而是AI下一步必须跨过的门槛。
热门跟贴