理想自研芯片的狠活,不是算力本身,而是终于有人敢对英伟达路线说不
发布会刷了一圈,大家都在聊1280TOPS、2560TOPS这些数字,说实话我也被震了一下。但我翻了翻技术文档后发现,理想这次真正值得聊的,不是算力堆了多少,而是他们选择了另一条路。
传统GPU什么逻辑?数据在计算单元和缓存之间反复搬运,像快递员每次送一件货都得回仓库再取,算力利用率撑死30%-40%。
英伟达Thor-U单颗2000TOPS的纸面参数确实高,但实际能跑出来的有效算力,要看模型适配效率。
理想这颗马赫M100玩的是“动态数据流架构”。说白了就是让数据直接在计算单元之间流动,不用反复在缓存里“卸货装货”。
数据驱动,不是指令驱动。官方给的数据是算力利用率82%,端到端延迟降40%。什么概念?车辆反应速度比人类快一倍。
这个技术路线其实是有“背景故事”的。2021年全球芯片荒,车企蹲在芯片厂门口等货的画面还历历在目,那一年全球减产超千万辆。
理想也是在那个时间点开始琢磨自研的事。
CTO谢炎2022年加入时,芯片团队只有两个人,一个月后剩一个。四年后的今天,马赫M100不仅量产上车,论文还被ISCA 2026收录——这是计算机体系结构领域的顶级会议,理想是第一个入选的汽车企业。
为什么要自研?表面看是算力不够用。但谢炎在采访里说得更透:“如果供应商能用一半的价格提供三倍的性能,我们没必要自己做。问题是他们做不到。”
外购通用芯片要兼顾所有客户的需求,没法为单一车企做极致定制。而理想的VLA大模型跑在自研芯片上,软硬一体协同设计,这才是真正的效率来源。
还有一个容易被忽略的点:成本。外采双颗Orin-X大概4000-5000元,自研单颗成本能控制在2500-3000元。当理想年销冲到大几十万辆的时候,这个账就彻底算过来了。
而且芯片面积才是真正的成本核心——当单车需要的AI硅片面积成倍增长,自研在经济上越来越划算。
说实话,算力数字看多了容易麻。1280、2560,终究只是参数。真正值得关注的,是理想这个选择背后的逻辑:不跟英伟达卷通用GPU的老路,而是用数据流架构赌AI推理的未来。这种“技术分叉”能不能成,还得看L9 Livis交付后的实际表现。
但至少,终于有人敢对英伟达那条路说“不”了。在AI时代,中国车企从“用别人的芯片跑自己的算法”,到“自己的芯片跑自己的算法”,这一步不管结果如何,都值得尊重。
热门跟贴