打开网易新闻 查看精彩图片

“看来我们要回中国了。”在拉斯维加斯正在举办的CES 2026大会上,黄仁勋乐观地说。

距离12月8日美国政府宣布为英伟达AI芯片对话出口的“松绑”,正好过去一个月的时间。

一周前,有消息称国内科技公司字节跳动将在2026年斥资1000亿元购买AI英伟达AI芯片。这一数字比2025年的850亿元,增长17.6%。

据了解,此次美国对话出口限制调整后,英伟达应景收到高达200万颗H200 AI芯片订单,订单量远超英伟达当前的库存量。200万颗的芯片需求量按均价估算,预计将为英伟达创造约540亿美元(约合人民币3774亿元)收入,超过英伟达此前因为出口限制规定造成的损失。

字节斥资1000亿买芯片

“让所有人提到AI必想火山引擎。”

“中国AI云的牌桌上一定有火山。”这是火山引擎总裁谭待对火山引擎的定位。作为字节跳动旗下的AI服务平台,谭待认为,很多人低估了火山引擎拿下AI云的决心。

2025年的最后一天,有媒体报道称,字节跳动计划在2026年斥资约1000亿元采购英伟达的AI芯片。这一数字比2025年的850亿元增长17.6%。亿欧网就此向字节跳动人士求证,对方称不便回复,未作回应。

2025年12月23日,火山引擎宣布成为2026年中央广播电视总台春节联欢晚会的独家AI云合作伙伴,字节跳动旗下智能助手豆包也将配合上线多种互动玩法。在此之前,同为字节跳动旗下产品的抖音,已在2019年和2021年分别成为春晚的独家互动平台。

这意味着,在今年春节期间,作为全民级晚会的官方互动平台,火山引擎要面对的将是一场“硬仗”,大规模的用户涌入、短时高并发的数据运算,算力成为绝对关键的支撑。因此云计算基础设施必须“抗造”。

“豆包大模型日均token处理量超过50万亿,半年增长超过200%。”在不久前的火山引擎Force原动力大会上,谭待宣布了上述数据。

而最新的研究数据显示,豆包的日均活跃用户数(DAU)已经突破1亿,拿到字节跳动APP王国里亿级DAU的入场券。

在今年10月份,谭待在Force Link AI创先巡展上披露,豆包大模型每日token调用量从去年5月的1200亿增长至今年9月份的30万亿,增长249倍。

日均活跃用户数的增加意味着用户与豆包问答次数和文本数量都在海量增加,对于豆包而言,保证大模型运行的顺畅与准确的基石便是火山引擎的云服务支撑。

根据IDC的报告,今年上半年火山引擎在中国公有云大模型服务调用量方面位居第一,市场份额占比达到49.2%,占去中国公有云市场的半壁江山。

因此,低延迟的应答效率也成为模型的内在要求。而亿级的日活用户、万亿级的日均token消耗之下,势必要求云服务基础设施必须有更高的准确性和持续的稳定性。

这两点需求意味着字节跳动要“喂饱”豆包和火山引擎两款产品,对AI算力有着几近“无底洞”似的需求。因此。无论是采购英伟达性能更优的AI芯片还是成立芯片设计部门,都是算力高需求下的谋生之举。

1000人的部门,造芯片

与1000亿元芯片采购计划一同曝出的是字节跳动设立的1000人的芯片设计部门,报道称字节跳动芯片设计部门在处理器流片(tape-out)方面取得了进展。据了解,产品性能与H20相当,但成本更低。

实际上,字节跳动的自研芯片之路起步于六年之前。

根据此前《晚点LatePost》消息,字节跳动早在2020年开启了芯片自研计划。在2022火山引擎原动力大会上,时任字节跳动主管火山引擎、数据中台的副总裁杨震原透露字节的芯片自研进展称,自研芯片涉及视频编解码、云端推理加速等场景,已经启动包括AI芯片、服务器芯片、FPGA NIC(FPGA形态的智能网卡、FPGA为可编程逻辑门战列)项目和RISC-V项目至少四个芯片项目,且AI芯片已经流片。同时称字节还没有开发CPU、GPU等通用芯片,而且已启动的自研芯片是自用,不对外销售。

在研发人才与队伍方面,2021年春天,字节芯片团队加速扩充,规模超过200人。彼时,阿里平头哥芯片团队人数约1500人,顶峰时OPPO旗下的哲库也有2000人。相对而言,成立半年多的字节芯片团队,规模称不上庞大。

此前报道援引知情人士评价称,如果字节真要完全自研,同时量产AI芯片、视频编解码芯片、智能网卡等多个产品,并保持产品的综合性价比优势,算上软硬件开发工作,两三千人不一定够;而如果硬件部分大量外包,软件采用内部团队,则可以把团队人数控在百人规模,既能满足顶部需求,又能减少投入成本。

就在今年9月份,传言字节跳动已将其约1000名员工的半导体团队转移到现有的新加坡子公司Picoheart(SG)。知情人士称,字节跳动通知团队转移决定受影响的员工,将他们在飞书上的内部消息账户转移到一个单独的实体。字节跳动同时告知员工转移后在子公司,员工的合同、福利、绩效评估和考勤管理政策保持不变。

针对上述消息,字节跳动随后发布了辟谣通知,称其芯片业务的主题一致没有变化,切换的只是飞书租户,外界关于裁员、独立、变更主体等过度的解读不实。

知情人士称,虽然业务被放置在新加坡公司下,但员工不会更换合同主体,也不影响原有字节的期权、不涉及裁员和赔偿事项。

2025年11月,2025字节跳动奖学金颁奖典礼上,字节跳动技术副总裁杨震原称PICO将在2026年推出新品,并将首次搭载全链路自研的头显专用芯片。据了解,PICO自研芯片主要用于解决MR场景中高清高帧率视频的实时处理瓶颈。目前该款芯片已进入量产阶段。

与此同时,拉宽视角来看,国内的互联网科技公司开始在自研芯片的赛道上开足马力。无论是自研还是面向市场,以百度、腾讯、阿里和字节为代表的科技大厂都开启了各自的自研芯片之路。国内芯片行业,逐渐呈现出创业派+科技公司派+国资背景与产学研结合派的鼎力格局,国产AI芯片围绕“自主可控”的叙事展开。

英伟达成最终赢家?

“芯片巨头”英伟达与中国市场的分分合合一直吸引着市场关注。

自从2025年中旬,英伟达对华特供版芯片H20因“后门”等安全风险被中国政府问责,此后的时间里,英伟达在中国市场的份额从95%降至0。尽管英伟达创始人兼CEO黄仁勋多次对美国政府游说,但是在一段时间内并未改变芯片对华出口限制的局面。

转机出现在2025年12月8日,当日美国总统特朗普在社交媒体上宣布“在国家安全得到保障的前提下,美国即将允许英伟达向中国大陆等地区的客户出口H200产品。”英伟达需给美国政府25%的销售分成。

虽然黄仁勋已经表示向客户供应H200是一种值得肯定的举措,但同时他也表达过担忧,称“不确定大陆客户会不会要H200。”这也被市场认为他在暗示该款芯片的性能已经不先进。

根据此前腾讯科技的报道,业内普遍估计H200的算力是H20的8倍左右,性能大幅领先,更易获得客户青睐,H200的利润空间要比H20更大。

去年更早些时候,黄仁勋在链博会宣布H20解禁之后,曾表示已经收到多个来自中国的芯片订单,需调整产能以保证交付。但是此后由于芯片的“后门”等风波,最终未能交付。据了解,订单中包含来自中国的互联网科技公司阿里、字节等企业。

随着H200芯片解禁,有业内人士表示此前未交付的H20订单需求可能转化为新订单,在2026年释放。

同时针对外界质疑的产能问题,英伟达回应称其正持续管理供应链,H200对华出口限制解禁不会影响其向全球客户的供货能力。

根据快科技本月4日消息,新一轮芯片解禁后,英伟达已经收到了高达200万颗H200 AI芯片订单,订单量远超英伟达当前70万颗的库存。H200 AI芯片在中国平均售价为27000美元,以此估算,英伟达将有540亿美元收入。

而在拉斯维加斯举办的CES2026大会上,黄仁勋一举官宣了英伟达8款产品,并且乐观的称,“看来我们要回中国了。”

中国市场曾在英伟达的业务版图中占据重要地位。2024财年,该公司中国区营收高达171亿美元,同比高增66%,占公司总营收13.1%。黄仁勋曾预测中国市场规模可能会增至每年500亿美元的水平。

只是眼下全球科技竞争张力尽显,国产芯崛起艰难重重,英伟达的卷土重来是否会对国产芯带来消极影响。对此,腾讯科技此前援引一位算力分销商的观点称,“H200对中国客户具有实际应用价值,目前国内的云厂商基本都用于训练,做推理性价比不高。而国产AI芯片,目前大部分用于推理场景。”在业内人士看来,H200芯片的解禁与国产并不直接冲突。