近日,微信和百度两大超级应用平台相继宣布接入国产大模型,引发市场对AI算力供需矛盾的广泛关注。微信正灰度测试接入DeepSeekR1模型,用户可通过对话框顶部的“AI搜索”入口免费调用该模型的深度推理功能;百度搜索则全面整合DeepSeek与文心大模型的深度搜索能力,支持开发者调用模型创建智能体。两大平台凭借超10亿月活的用户基础,或将加速AI技术向大众市场渗透,同时推动推理算力需求爆发式增长。
模型普惠化:超级入口带动AI技术下沉
微信作为月活13亿的国民级应用,其AI搜索功能的开放标志着大模型技术首次触达下沉市场。腾讯官方表示,该功能仅整合公众号生态及全网公开信息,不涉及用户隐私数据。尽管当前处于灰度测试阶段,但即使小比例用户使用AI搜索,其并发请求量也将对算力资源形成显著压力。银河证券分析指出,DeepSeek模型通过架构优化将推理成本降至行业极低水平,使得大规模商业化落地成为可能,而微信的接入将进一步加速应用普及。
百度的深度搜索功能则通过文心智能体平台开放模型调用权限,开发者可快速构建调优智能体。中信证券认为,DeepSeek的工程化能力创新实现了算力成本极致优化,其动态路由架构(MoE)和模型压缩技术显著降低单任务算力消耗,为端侧部署高性能模型提供新方向。开源证券则强调,低成本模型降低了企业接入AI的门槛,将拉动推理侧算力需求增长,推动AI基础设施部署进入快车道。
市场反馈显示,DeepSeek模型接入已引发现象级需求。例如,即时AI应用(ima)上线首日即因用户激增导致服务器崩溃,暴露出推理算力供给的短期瓶颈。业内预测,未来5年国内推理算力年复合增速将达190%(IDC数据),而TIRIASResearch预计推理算力占比将升至95%。这一趋势表明,AI技术从实验室走向实际应用的过程中,推理需求的爆发将远超训练算力。
推理算力产业链:供需矛盾催生基础设施升级
当前,互联网厂商普遍面临模型接入后的“服务繁忙”问题,反映出推理算力需求与供给的严重失衡。云厂商需部署高性能GPU或国产算力芯片,并升级数据中心架构以提升算力利用率,但短期内大规模投入难以实现。中金公司指出,AI投资主线正从“大模型-训练算力”向“AI应用-推理算力”延伸,算力缺口或推动行情回归硬件产业链。
硬件层面,国产推理芯片、光通信模块及液冷技术成为关键突破点。中信证券建议关注晶圆代工、定制化存储及终端SoC等领域;银河证券则强调,端侧AI设备(如手机、眼镜)将受益于模型轻量化趋势。此外,AI数据中心(AIDC)需求激增,第三方服务商有望承接云厂商的溢出需求。浙商证券测算显示,微信全面开放AI搜索后,其推理算力需求可能达到当前头部云厂商的数十倍,倒逼基础设施快速迭代。
值得注意的是,技术迭代与成本压缩并未打破算力需求的长期增长逻辑。尽管DeepSeek通过创新将千亿参数模型运行成本降至边缘设备可承受范围,但应用场景的多元化仍将推高算力总量需求。开源证券指出,AIAgent技术进步与B端应用成熟将形成双向驱动,医疗、金融等“AI+”领域或成为下一阶段行情扩散的重点。
综合来看,国产大模型与超级入口的结合正在改写AI行业生态。短期看,推理算力供需矛盾将催化硬件产业链升级;长期看,技术普惠化带来的应用爆发将重塑算力消耗结构,推动AI从工具向生产力全面演进。
本文源自:金融界
作者:AI君
热门跟贴