很多争论其实绕开了关键。现在一提到“AI产业贡献”,不少人第一反应是算法多不多、模型大不大,但真正决定能不能进榜的,往往不是这些显眼的东西,而是另一件更不性感、却更费力的事:有没有把一整套东西从底到顶跑通。
这次中兴通讯入选2025年度AI产业贡献榜,给的理由也挺直白:不是某个模型突然出圈,而是“全栈AI智算解决方案”在推动算力普惠,已经开始服务具体行业。听起来很宏大,但拆开其实就是一个老问题的新版本——AI到底是实验室里的能力,还是能被普通行业真正用起来的工具?
先把事实摆在桌面上。2025年度AI+“硬核”榜单中,中兴的方案被选入产业贡献榜单;这个方案覆盖了从底层算力设施到上层应用的完整链条;公司披露,2025年前三季度,算力相关收入占比已经达到25%,服务器和存储业务同比增长明显。这些都是公开表述,不是感性判断。
但有意思的是,它的切入口并不在“模型有多聪明”,而是从算力怎么供、怎么用开始。中兴自己做了AI交换芯片、加速芯片和智算服务器,搭出一个高效算力底座,其中智算超节点支持大规模GPU高速互联,可以训练万亿参数级模型。这个顺序很关键:不是先谈应用,而是先把“电网”和“高速路”修好。
如果算力底座不稳,会发生什么?很简单,模型再大也跑不动,行业客户只能看演示视频。反过来,如果算力供给稳定、成本可控,那模型和应用才有落地空间。这有点像开饭馆,菜谱写得再好,没有稳定的燃气和供应链,最后还是做不出几桌像样的菜。
在此之上,中兴搭了一个“1+N+X”的大模型体系:一个通用底座模型,叠加多个行业模型,最后再封装成可以直接用的应用组件。这里的逻辑不是追求“一个模型打天下”,而是承认行业差异存在,用组合的方式降低部署难度。你可以理解为,不是每个企业都从零造轮子,而是用半成品快速拼装。
再往前推一步,如果模型还是需要高门槛开发,事情就会卡住。于是他们做了一个叫“超级智能体”的低代码平台,更像一个“应用工厂”,让企业用更低的技术成本构建自己的AI应用。这一步的意义不在炫技,而在于减少中间环节的摩擦。门槛低了,才会有人真的去试。
还有一个容易被忽略的点,是AI能力被塞进了终端,比如家庭网络设备、智能屏等消费侧产品。这不是什么科幻场景,而是把算力和模型延伸到日常使用环境中。它的价值不在于单点性能,而在于形成闭环:算力—模型—应用—终端,全都在一个体系里。
换个普通人的视角其实很好理解。很多企业不是不想用AI,而是算不过账:设备贵、开发难、效果不确定。如果一家公司能把这些成本拆分、打包、标准化,那AI就从“战略口号”变成了“可以试一试的工具”。这也是为什么算力业务能在营收中占到四分之一——不是因为概念火,而是有人在用。
这并不意味着一切都解决了。全栈投入本身就意味着高成本、长周期,需要持续投入和市场消化能力。但至少从结果这套体系已经走出了实验室,在通信、工业等行业里产生了实际应用,而不是停留在展示层。
所以这件事的核心,不是某家公司“厉不厉害”,而是一个更现实的问题:当AI从概念走向普及,是继续拼单点突破,还是老老实实把底座、工具和应用一起补齐?如果这种选择摆在你面前,你会更愿意押哪一边?
热门跟贴