提起中美AI竞争,大部分人第一反应就是拼芯片,天天吵我们单卡性能不如人是不是就输定了。其实好多人都搞错了方向,我们早就不跟对方卷单颗芯片的极限性能了,现在走的完全是另一条路子,说白了就是用自己的长处打对方的短处,这场较量从一开始就不是你死我活的单赛道拼刺刀,是全方位的耐力比拼。
现在AI要做大模型,堆一堆芯片组成算力集群,遇到的第一个坎就是数据传输。美国用的传统电路互联,堆到一万张卡的时候,数据传过来传过去损耗大到离谱,本来单卡性能再强,凑到一块整体算力直接打了不少折扣。我们这边靠华为把整个光通讯产业链捏得死死的,直接用光纤互联代替电路互联,大规模集群的传输损耗降了一大截。
靠把很多卡的算力整合到一块,我们轻松补上了单卡芯片的性能短板。目前市面上绝大多数大模型训练场景,这个方案都能hold住,完全够用。也就只有那种要求极致低延迟的顶尖训练领域,我们还有一点点小差距,不影响大局。
很多人不知道,AI拼到最后,真正卡脖子的其实不是芯片,是电力。顶级算力集群那耗电量,相当于好几个中型工厂一起跑,没有足够稳定便宜的电,根本玩不起。我们国家的电力基建放在全世界都是降维打击,西电东送打通了跨区域资源调配,绿电开发规模越来越大,还有特高压技术托底,给AI产业供能完全没压力。
回头看美国那边,高端AI算力的能耗涨得比火箭还快,本土公共电网早就扛不住了,直接成了他们AI发展的致命短板。美国人也想破解这个问题,打算自己建电厂专门给算力集群供电。可哪有那么容易,全球燃气轮机产能早就紧缺得不行,订单都排到2030年以后了。加上环评、审批、铺管网一堆麻烦事,电厂建起来不知道要等到哪年。
更扎心的是,美国连成熟的特高压技术都没有,核心电力设备还得靠我们中国供应链。业内现在都捋得门清,大概2030到2035年之间,美国AI就会碰到怎么也闯不过去的电力算力天花板。这个坎不是靠砸钱买高端芯片就能绕过去的,实打实的基建短板明晃晃摆在那。
基建和资源的先天差异,直接让中美AI走上了完全不同的发展路线。美国AI往高端赛道扎,一门心思搞顶级大模型、云端高精尖运算,主要服务少数头部企业,一切围着高利润转。他们主动放弃了低利润的下沉市场,这就给我们留下了很大的发展空间。
我们不执着非要搞出比美国强的极致尖端性能,走的就是低成本、开源化、普及化的路子。国内现在推的“AI+”赋能模式,就是往各个行业里嵌,政务服务、实体经济、大大小小的传统行业,到处都能落地AI。这种规模化的产业应用优势,美国想学都学不来,他们没有我们这么完整齐全的产业盘子。
在AI全球治理这块,中美有共识也有不一样的想法。双方都同意绝对不能用AI研发核武、生化武器这类高危技术,这点是达成一致的。但在网络攻防AI、AI自主迭代、舆情治理这些领域,两边的理念差得挺多。美国就喜欢搞一刀切,弄个固定数值卡所有情况,我们觉得得结合实际场景做风控,还得尊重各国自己的舆情治理权限。
这场AI较量,从一开始就不是单一芯片的比拼,是基建、算力、产业生态的全方位持久战。AI的核心价值本来就是落地变成生产力,能做出规模化的应用生态,才是最后定胜负的关键。
参考资料:新浪财经 《23倍投资只换2.7%领先:中美AI竞赛,从来不是烧钱游戏》
热门跟贴