亲爱滴小伙伴们
最近微信又改版啦
邀请大家动动手指
把圈主设为星标
这样就不会错过我们的精彩推送了
2025-7-22 15:30-16:30
直播嘉宾:
李星全 国泰基金量化投资部ETF研究员
摘 要
基本面来看,近几年大模型迅速进化,在变得越来越智能的同时,也在往多模态方向发展,应用场景不断拓宽,用户数量迅速增长。而大模型相关的训练以及推理的需求落到硬件上还是要靠AI服务器支撑,算力板块也正在呈现高速的增长。
从算力端来看,Blackwell架构的芯片已经开始迅速起量,成为新一代主导产品,而Blackwell芯片的放量对于人工智能的投资机会非常重要。推理的算力需求正在快速地增长,Blackwell芯片能有效使得算力的性价比快速提升,也对迅速打开市场空间比较有利。
从产业链拆解来看,现在在英伟达的产业链上,在PCB、光模块以及服务器ODM这些环节,A股公司比较有竞争力,这些环节也就跟英伟达本身的景气度高度强相关,带来比较强的确定性。在AI服务器里面的PCB用量大,比较高规格的甚至要达到30层以上,AI服务器成长对于产业链上的PCB公司来说也有较大的景气提升。而光模块在集群里面占据了必要且核心的位置,受益于GPU量的成长,以及网络升级带来的技术密集度提高,光模块总体上也是量价齐升的。
国内AI领域方面,美国对华制裁在2023年以来都是趋紧的,国内的算力硬件的供给还是存在比较大瓶颈。但是国内公司也在不断地克服困难,推出有影响力、可以在全球AI领域跻身第一梯队的大模型,国产算力的发展机会也是比较大的。此外,国内的GPU市场规模据估算可达千亿,相比较而言,现在国内国产的GPU公司收入体量还是比较小的,如果往后国产的算力去进行更多自主可控的话,这个空间也是比较大的。
下半年如何布局AI行情?通信ETF(515880)光模块、服务器ODM加铜连接的占比超过60%,光模块占比超40%,业绩确定性比较强,从4月份看到现在的走势是比较好的。创业板人工智能ETF国泰(159388)光模块占比也较高,具备高弹性的特点。而信创ETF(159537)涵盖了在信创产业链上的很多个股,比如GPU设计、制造等公司,随国产算力发展或有比较好的前景。
正 文
李星全:今天给大家介绍一下AI产业链的价值解码,顺着AI剖析一下产业链各个环节的发展,并给出相关的投资建议。
一
模型端:大模型技术发展持续,行业基本面向好
首先是行业基本面的介绍,大模型这几年进化迅速,有一篇论文叫《Scaling Laws for Neural Language Models》,研究者验证之后发现模型的损失和计算量、数据级规模以及参数规模三个变量强相关,在其中两个变量恒定的情况下,模型的损失和另外一个变量的关系是幂的关系,这个结论后来被人们称为缩放定律。
在缩放定律的指引下,如果我们能够不断地增加模型的规模,能够喂给它越来越多的语料进行训练,理论上模型的性能有可能得到持续的提升。另外,在论文里研究者还提出了一个有意思的点,一开始模型规模在提升的时候,这个模型的准确度只是在缓慢提升,但是到了一定的阈值之后,这个准确度马上就开始直线拉升,这被称为模型涌现,相关迹象表明AI有了较大的商业应用潜能。海外咨询机构SemiAnalysis研究了GPT4的进化历程之后,发现GPT沿着算法改进和优化的趋势,每次迭代会使它的成本降低10倍,同时性能也有可能提升10倍左右。
接下来复盘一下大模型和OpenAI的发展历程。OpenAI的成长历史并不算特别长,但是如今已经成为一家全世界瞩目的科技界独角兽公司了。2017年是人工智能领域重要的分水岭,这一年谷歌发布了一篇重磅的论文《Attention is All You Need》,这篇论文提出了一个非常有创造力的东西,就是自注意力机制以及Transformer架构。在当时发布的时候,可能包括谷歌自己的研究员都没有意识到这个架构可能会在几年之后成为主导人工智能领域发展的重要基石。
2018年,GPT第一个版本发布了,它是基于Transformer架构演化出来的第一个大模型。2019年GPT迭代到第二代,GPT2的参数量大约有15亿,它已经可以执行一些相对简单的任务。到GPT3,它的参数量已经达到了1750亿,它的生成能力也已经扩展到了创意写作、编程等,大模型路线相对于当时人工智能领域的其他技术路线也展露出一定的潜能。
大模型路线正式宣告其在AI领域的主导地位则要到ChatGPT的发布,GPT3.5是在GPT3的架构上进一步研发的,只不过它在训练和微调方面做了一些改进。通过这样一些技术改进,GPT3.5模型的性能得到了较为明显的提升,包括生成能力、智能性、减少幻觉等。2023年GPT3.5模型马上在全球范围开始风靡,也引发了这两年AI比较大的行情。
2024年,OpenAI发布了o1模型,这是一次技术上的里程碑,可以视作推理阶段的延续。o1开创性地采用了「长链思维」进行思考,比如说问它什么问题,它就会把这个问题拆解成无数个小问题,一步一步思考,这种思维链的方式也被其他的公司学习和继承。
二
算力发展:Blackwell芯片放量推动产业链发展
现在的大模型确实变得越来越智能,同时也在往多模态方向上发展,应用场景也不断拓宽,用户数量迅速增长,相关的训练以及推理的需求呈现高速增长。而算力的需求落到硬件上还是要靠AI服务器支撑。摩根士丹利有一个报告,英伟达最新一代AI服务器GB200 NVL72的拆解里面,一个72卡的机架价格达到了300万美金左右,其中GPU的价值量达到了216万美金,约占72%。我们也关注到英伟达的毛利率、净利率均较高。英伟达在短短的两三年里,它的收入跟利润呈现如此高速的增长,让英伟达快速地成为全球市值第一的龙头,说明AI对于它的成长的拉动性很大。(注:提及个股不作为推荐,下同)
从英伟达的硬件去看,因为它在GPU领域差不多有90%以上的份额,所以英伟达自身的技术迭代也就基本意味着AI硬件侧的进化历程。英伟达现在的产品迭代周期基本上是一年一迭代,目前Blackwell架构的芯片已经开始迅速起量,成为新一代主导产品。
2023年人工智能刚刚开始爆火的时候,当时英伟达的主打产品还是上一代的芯片H100。在3月份大模型爆火之后,英伟达GPU马上就成为了稀缺产品。2023年下半年,GPU相关的收入、利润等也开始迅速成长起来。现在跟当时非常类似,也就是硬件迭代了一代,Blackwell现在已经成为主导产品。5月份法说会上透露的是GB200 NVL72机架超大规模客户周均部署达到了1000台机柜左右,并且规模有进一步放大的趋势。所谓的超大规模客户是指北美的那几家云厂商,一台有72张卡,每周1000台的话就是7万多张,价格是比较贵的,英伟达通过自身的GPU成长带动了全产业链上的成长。
为什么Blackwell芯片的放量对于人工智能的投资机会这么重要?首先,现在跟以前的人工智能发展阶段略有不同,在2023年、2024年海内外厂商都在急于训练自己的大模型,推出一些智能水平更高的模型,所以当时算力需求的增长主要是由训练算力主导的。但是越往后,不管是国内的还是海外的云厂商,他们对于算力的投入都是希望能收回一些成本,在模型训练完之后也希望在用户端能够得到一个比较好的产品体验。现在用户端的应用场景正在迅速打开,推理的算力需求正在快速地增长,推理相比训练而言,它对于精度的敏感性更低,Blackwell比起上一代芯片,它推出了一种更低精度的数据格式FP4,FP4数据精度格式推出来以后,相关的算法可能还需要一段时间适应,但是我们确实看到了应用的潜力,尤其是在对数据精度敏感性不太高的应用场景上。
在英伟达法说会和去年GTC大会上就提到过,以FP4的精度去看,Blackwell单位每元可以提供的算力在特定场景下比H100提高大约237%的极限值,Blackwell的发布让算力的性价比正在快速地提升,同时也有利于迅速打开推理的市场空间,推动人工智能快速发展。
三
产业链拆解:关注PCB、光模块、服务器ODM机会
这是对算力产业链的简单示意图,流程上,英伟达先设计GPU,接着委托台积电做制造和封装测试,然后交给下游的ODM厂商做成一个基板,在这个基础上进一步把它组装成服务器,再把服务器转交给下游的云厂商,这些云厂商可能在进行组网的时候也需要购买交换机。
在这个产业链中,设计主要是由英伟达自己完成的,制造由中国台湾的台积电完成。其中用到的PCB包括A股的几家PCB龙头公司以及台股的PCB龙头公司,服务器ODM主要是由工业互联、广达电脑、伟创、英业达等公司进行组装,到客户端下游的云厂商,主要是北美几家较大的云厂商,包括亚马逊、谷歌、微软、META等等。在英伟达的产业链上,IC设计、IC制造等方面A股公司的参与程度是比较低的,而在以下环节占有较高的份额,自然这些环节也就跟英伟达本身的景气度高度强相关。
第一个是PCB,因为A股很多公司比较有竞争力,他们在AI还没有兴起之前就有比较大的优势。另一个是光模块,光模块属于英伟达AI需求起来以后形成的针对性成长领域。第三个是服务器ODM,也就是组装AI服务器,它的利润可能也会比组装传统的通用服务器更高一点。这里面我们重点聊一下PCB和光模块的机会。
(一)PCB:电子元器件之母,AI服务器和交换机的必备器件
PCB是印刷电路板,在服务器这种应用场景中,它对于电路的要求是比较复杂的,它的空间又很有限,不可能用电线连,所以经过一些技术的迭代,我们可以把电路打在一块板子上,这时候只需要一些引入的接口和引出的接口,这个电路就可以用了,这就是PCB最基础的概念。大家如果有拆过家里的收音机、闹钟的话,其实可以发现里面有PCB。
但英伟达的PCB和我们家里面用的有很大区别,AI服务器里的PCB基本上都是在22层以上,比较高规格的能够到30层以上,材料现在也用到了覆铜板,所以它的价值量是比较高的,贵的能达到几万块钱一平方米,用量也比较大,AI服务器的成长对于产业链上的PCB公司来说也有了较大的景气提升。PCB之前有过几次产业链的转移,一开始是从美国转移到了日韩,进一步转移到中国台湾,后面大陆的公司逐渐崛起,创造了全球比较大的PCB份额,我们在技术、份额方面都是比较领先的,这是一个很好的赛道。
(二)光模块:用于大型网络连接,AI服务器带动光模块起量
再看光模块,因为现在的大模型规模比较大,进行大模型的训练和推理不可能依靠一台服务器或者一张GPU就能够完成。即使GPU再先进,它显然都承受不起这么大规模的运算量,我们就可以把GPU进一步组装成更大的集群,大模型运算的任务就可以分割成无数个小任务,分发到每一张GPU上,分别进行运算,最后通过各种各样的运算得到结果并汇总。
现在数据中心的组网也比较复杂,我们用的AI集群里面最简单的要求就是任意两个GPU之间或者服务器之间必须得有一条通路,这样才能够满足数据交换,可以看一下示意图,其中红色部分是GPU,上面有一层交换机,分别把GPU连起来,连成一个小的集群,再由上面的交换机把各交换机连接起来,这样下面的GPU可以连成一个集群,如果还要进一步扩展GPU的规模,就可以在上面再加第三层交换机,叫作核心交换机,这样就可以把GPU连成一个比较大的集群。
在这其中,光模块的作用是什么?数据中心信号的频率是比较快的,传输的速率也很快,在这个时候如果还用传统的铜缆进行长距离信号的传递,这个电流会有一个趋肤效应,这些信号在传输的过程中集中在导体的表面,传输不均匀,这就会引发发热、信号的损耗等问题,导致最后数据包丢失等比较严重的后果,训练和推理的效率就会下降得非常快,所以在传输的过程中必须用光进行长距离的传输。
如果距离比较长的话,怎么用光传输?信号从交换机出来以后需要用一个光模块把电信号转化成光信号,传输到另一端之后又把光信号转化为电信号进行进一步的数据处理,光电转换的任务就是由光模块来做的。为什么要转化成电信号?因为现在光信号是没有办法进行数据处理的。所以光模块在集群里面占据了必要且核心的位置。A股公司也在光模块领域的技术领域、产能方面全球有一个比较大的优势,在北美的云厂商定制芯片里面都有比较大的份额。
在英伟达GPU进化的过程里,对于网络的要求也变得越来越高,英伟达的上上代A100芯片,它的网络通信速率大概是200G,因为配套的是200G网卡,在英伟达H100芯片里面,它的网络通信速率已经到达了400G,当时用的主要光模块是400G和800G,到GB200后,网络的通信速率到达了800G,也就是说现在在这个网络里用到的光模块必须得是800G以上,甚至是1.6T的光模块。因为它可以向下兼容,一个1.6T的光模块相当于两个800G的光模块,所以整体来看光模块一方面是受益于英伟达的GPU量的成长,另一方面从200G到400G、800G,再到1.6T,后面可能还会再到3.2T,技术密集度也在提高,所以总体上光模块也是量价齐升的。
对于刚提到过的PCB也是同样的状况,网络升级后对于PCB的传输、速率的要求都是更高的,所以PCB的量和价都在快速地上升。自从二季度英伟达的GB200快速放量以来,国内的光模块厂商、PCB公司以及服务器ODM的业绩增长是快的,我们也比较看好业绩的中长期景气度。
根据研究机构的测算,在组建三层网络的时候,GPU和光模块的比大概是1:3.5,也就是一张GPU需要用到3.5个光模块,之所以比例会略低,是因为它是以Blackwell进行测算的,里面用到了1.6T的光模块,如果全部用800G的,这个比例会进一步上升。光模块和PCB的业绩确定性是很强的,需求也是比较明确的,只要英伟达的卡可以放量,下游的厂商买了卡以后要组建一个大规模的集群。在组建集群的时候,所用到的光模块、服务器交换机以及光模块里面的PCB的量都是在上升的。
2023年一季度,英伟达大模型爆发,当时假设下游的厂商马上找英伟达定制GPU,英伟达又马上去找台积电下单GPU,等到台积电制造以后交到下游客户的手上,这就至少也到了Q3的末期或者Q4初期。但对于PCB和光模块厂商来说,它们的生产周期可能没有半导体芯片那么长。2023年Q3、Q4时,英伟达GPU放量,可以看到前十家PCB和光模块公司利润和收入增速在当时的成长性已经明显,与之相对,在2023年Q1时,相关领域的公司其实对于景气度没有特别大的信心,可能当时大家没有想到AI能够引起这么大的产业趋势。
我们如果要去筛选相关的投资品,还是要在光模块、PCB、服务器ODM领域筛选,但是一些主流人工智能指数对于PCB的持仓都是相对比较少的,对光模块的关注度就需要额外给高一点。但是我们这里也需要注意到两者之间的关系,英伟达GPU卡下面必须有一块大的PCB,一般叫作OAM,这个PCB放在服务器里面还需要一个比较大的主板,这个主板的形态有些变化,但是总体的需求还是有的。另一个是交换机里面需要用到比较高规格的PCB,光模块里面也需要用到PCB,这几个PCB的价格都比较高,用到PCB的就是这几个领域。只要涉及到光电转换环节都需要用到光模块,所以PCB和光模块之间有一个比较强的映射作用,这跟服务器的ODM也一样,当一个环节的景气度比较高的时候,另外的环节都不会特别差,大家也可以复盘一下历史上的业绩表现,当某个环节利润出现特别大增长的时候,比如光模块特别好的时候,PCB的增速也是比较明确的。在申万分类里,光模块属于通信设备,如果从这个占比去看,与其他主流指数相比,创业板人工智能ETF(159388)的光模块占比是比较高的。
数据来源:wind,中证指数公司官网,图中wind行业权重为指数权重与wind相关概念重合的个股权重之和(截至6月30日)风险提示:数据和来源可能随市场变化
四
国内大模型竞争力强,国产算力或有空间
之前美国在2018年、2019年还在制裁我们国家的通信,比如5G、上游半导体设备材料等等,自2023年以来制裁的重心转向了AI,我们国内购买英伟达卡还是会有较多的限制。
在算力方面,我们硬件的供应也相对匮乏。上一代英伟达本来在卖H100芯片,因为制裁就推出了像H800这样在算力、通讯方面做了一些衰减的芯片,后面发现H800系列也卖不了,就又推出了H20系列,但在上个季度又遭到了美国的制裁,最近几天有新闻说H20又可以继续卖了,总体来说国内算力硬件的供给还是存在较大瓶颈的。
但是即便如此,国内的公司也在不断地克服各种各样的困难,推出自己有较大竞争力的大模型,不管是阿里的通义千问或者DeepSeek,都发布了一些比较有影响力的模型,可以在全球AI领域跻身到全球第一梯队。由于国内关于AI的技术和经验的积累,我们的实力相对于其他国家是很有竞争力的,只是现在算力方面还是有一些欠缺,我们觉得国产算力也可能迎来比较大的发展机会,市场空间还是比较大的。
DeepSeek R1发布时,在全球引发了一场比较大的讨论,也让英伟达产生了较大的恐慌,当时大家觉得如果国内在没有算力的情况下也能够训练出像DeepSeek R1这么优秀的模型,那么是不是大模型就证伪了?后面的Scaling laws是不是也就持续不下去了?实际上从事后的角度来看并非如此,比如马斯克前几天发布的Grok4,其实海外的厂商还是在延续Scaling laws的指导去不断地训练自己的模型,通过这个形式让模型的智能度提升。国内之前在这方面一直面临较多的瓶颈,所以如果相关的算力供给能够缓解的话,其实Scaling laws在国内还是会有较大的应用空间。
国内的GPU市场规模能够到达多少?英伟达在一季度法说会上有过相关的表述,当时因为美国政府发布了H20的禁令,需要在一季度的时候计提45亿美金左右的费用,并且预计第二季度还要进一步计提80亿美金的损失,换成人民币年化已经超过了千亿元。也就是说英伟达在中国大陆的GPU收入是超过千亿元人民币的,并且这个市场还有进一步扩大的趋势。相比较而言,现在国内国产的GPU公司收入体量还是比较小的,如果往后国产的算力去进行更多自主可控的话,这个空间也是比较大的。
最近还有一个趋势,谷歌在大会上透露,截至2025年4月份,每月调动的tokens已经到达了480万亿,年增差不多到了50倍左右,对于字节而言,到今年5月份日均的tokens使用量也到了16.4万亿,自发布以来成长了137倍。
为什么这个算力的需求会增长得这么迅速?应用的增长也会带来算力需求的增长。谷歌浏览器在全球占有很高的份额,大模型推出来以后,它可以跟浏览器做一定的结合,如果每个用浏览器的人都能够使用大模型进行搜索和工作,我们可以大致猜测一下算力增长的程度,后续来看,其实还有很多领域,比如电商、网上教育、各种各样工作以及生产场景里,相关的结合都可以带来算力需求的快速增长,不管是国内还是海外。
各地政府目前都在快速兴建算力中心,在这些算力中心里面,因为还是会涉及到一些数据保密的因素,所以国产化率会比互联网的要求更高一点,国产GPU卡也就有一个比较大的发展空间。从资本开支来看,国内海外相关的资本开支增速都是很高的,海外的四家云厂商(微软、亚马逊、META、谷歌)一季度的总资本开支达到了700多亿美金,同比增长了64%,年化接近3000亿美金,这个规模是非常大的。这些资本开支里面,绝大部分的花费还是来自于数据中心里面的算力基建投入。2024年国内三大运营商的资本开支也超过3000亿,BAT三家公司的总资本开支超过了1500亿元,相关的增长都比较高。
从现在整个产业链上去看,算力以及人工智能产业趋势是比较明确的,不管是国内还是海外,最头部的科技公司不管是做互联网的,还是做手机、硬件的,他们都在AI赛道上激进地投入,所以相关的投入也可以为人工智能这个赛道提供最基本的景气支撑。
从中长期的角度来看,我们可以看到现在下游发展得比较快,比如说AI agent,还有前段时间卖得比较好的小米眼镜,今年以来一直比较火的人形机器人、智能驾驶等领域,都可以看出AI其实并不止在某个行业形成产品力,而是在各行各业可能都有用武之地。比如说在汽车行业的智能驾驶发展,比如说在消费电子领域可以让传统的消费电子终端有一个新的消费形态,甚至创造出新的产品形态迭代掉一些需求,让市场空间能够快速增长,相关的AI趋势和历史上曾经出现过的机会并不太一样,这一次可能真的能够改变工业运行的方式。
五
如何布局AI行情?关注通信ETF(515880)、创业板人工智能ETF(159388)、信创ETF(159537)
下半年如何布局AI行情?从投资品分析,还是要找一些业绩确定性比较强的产品。主要是光模块、服务器等需求比较明确、国内公司比较优质的产品。
比如我们的通信ETF(515880),光模块、服务器ODM、铜连接这几项的合计占比超过60%,其中光模块占比超过了40%。这个产品最近表现较强,因为英伟达GB200放量带来了全产业链高速成长的机会,基本面的改善拉动了通信ETF的成长,60日涨跌幅已经超过了40%,还是建议大家严密关注。从今年的走势来看,截至7月18日,它的收益率差不多接近20%,其中主要是受到了4月份关税行情的影响,4月份至今的走势是比较好的,这是因为人工智能的基本面以及这个产业的趋势还是值得长期看好的。
创业板人工智能ETF(159388)也是一个比较优质的产品,里面的光模块占比也是比较高的,我们前面做过指数的统计,创业板人工智能的通信设备占比达到了37.5%,里面大部分都是光模块,所以创业板人工智能ETF的投资价值也是比较强的。
这两者相较而言,可能通信ETF业绩层面会更强一点,而人工智能这个赛道非常热门,投资的情绪比较火热,由于创业板人工智能ETF国泰的弹性会更高,在情绪好的时候走势会更强一点。
信创ETF(159537)主要还是跟着国产算力走,国产算力也是非常重要的行情板块,因为现在全球都在人工智能领域角逐,我们国内对于人工智能的重视也是非常高的,不管是从国家层面还是从产业层面,所以国产算力也会有一个比较好的前景。信创ETF里面涵盖了在信创产业链上的很多个股,比如GPU的设计、制造以及设备等公司,后面如果国产算力能够起来的话,相信信创ETF还是会有一个比较不错的走势,建议大家多多关注。
今天就这样,白了个白~
风险提示
Risk statement
本速评已力求报告内容的客观、公正,但对这些信息的准确性和完整性不作任何保证,文中的观点、结论和建议仅供参考,相关观点不代表任何投资建议或承诺。行业或板块短期涨跌幅列示仅作为市场行情分析的辅助材料,仅供参考,不构成投资建议或承诺。
我国基金运作时间较短,不能反映股市发展的所有阶段。基金管理人承诺以诚实信用、勤勉尽责的原则管理和运用基金资产,但不保证本基金一定盈利,也不保证最低收益。基金的过往业绩及其净值高低并不预示其未来业绩表现。基金管理人提醒投资人基金投资的“买者自负”原则,在做出投资决策后,基金运营状况与基金净值变化引致的投资风险,由投资人自行负担。基金有风险,购买过程中应选择与自己风险识别能力和承受能力相匹配的基金,投资需谨慎。
投资人应当充分了解基金定期定额投资和零存整取等储蓄方式的区别。定期定额投资是引导投资人进行长期投资、平均投资成本的一种简单易行的投资方式。但是定期定额投资并不能规避基金投资所固有的风险,不能保证投资人获得收益,也不是替代储蓄的等效理财方式。
热门跟贴