在人工智能从“技术突破”走向“产业深水区落地”的进程中,AI正从云端交互工具,升级为驱动产业系统重构的“数字发动机”。随之变化的,是算力价值逻辑的重心:行业竞争不再仅是“训练侧参数规模的堆叠”,而是更快转向推理侧的效率、成本与可用性。在这一阶段,决定AI应用能否规模化、能否持续盈利的关键变量,正在从“拥有多少算力”转向“单位算力能稳定产出多少高质量Token(词元)以及产出成本”。

弘信电子基于对产业趋势的判断,提出并持续深化“Token工厂”战略:以“可规模交付的推理产出”为核心目标,将算力、平台、模型与场景应用贯通,推动从“提供算力资源”向“交付智力产出能力”的升级。

Token:AI推理时代的计量单位与价值载体

在技术层面,Token是大模型理解与生成信息的基本计量单位。文本、音频或多模态信息在模型内部,均会先通过分词器(Tokenizer)拆分成Token,再进行计算与生成。

在商业逻辑上,Token是衡量AI服务可交付产出的核心指标:

  • 每一次调用都涉及输入与输出Token,决定系统吞吐和响应效率;
  • 单Token成本与产出速度,直接影响AI在金融、医疗、工业等场景的可规模化应用和盈利能力。

因此,Token产出效率(Tokens/s)、首Token时延、单Token成本与稳定供给能力,构成AI应用走向规模化商业化的核心约束条件。

打开网易新闻 查看精彩图片

需求跃迁:从“可用”到“规模可负担”的挑战

随着大模型深入企业流程与多模态场景,Token需求正在呈现指数级增长。公开信息显示,中国日均Token调用规模已达到140万亿级别。

更重要的是,需求增长不仅来自调用次数增加,还来自任务结构变化:从文本问答扩展到智能体(Agent)多轮调用、检索增强生成、代码执行、多模态生成等更复杂链路。此类链路往往对系统提出更高要求:

  • 更低时延(尤其是多轮交互/工具调用场景);
  • 更高并发与更稳定的长时间运行;
  • 更可控的成本结构与资源利用效率。

在这一背景下,企业最现实的问题不再是“能不能用AI”,而是能不能以可负担的成本稳定用起来。这正是“Token工厂”战略要解决的产业痛点:把推理产出从“基本可用”变成“规模可交付”。

战略响应:以“五层协同”打造 Token 规模化生产体系

为应对Token稀缺与成本压力,弘信电子提出的“Token工厂”,围绕“从能量输入到智力输出”的全链路工程化体系。其方法论可概括为“五层协同”:

01、能源层:算电协同优化成本

弘信电子在甘肃(庆阳、天水、定西)、新疆等国家级能源枢纽及算力节点布局绿色算力,充分利用当地低成本绿电资源。通过“算电协同”调度机制,从源头压降Token生产的能源成本,同时保障推理业务高可靠性供给。

02、芯片层:坚持异构兼容,提升适配与交付弹性

在AI推理场景中,不同芯片架构在算力密度、能效比、软件生态与供应链确定性方面各有优势。公司坚持混合异构算力策略,深度适配燧原科技、华为等国产高性能AI芯片,同时利用ASIC/NPU架构优势降低推理计算成本。旗下安联通作为NVIDIA中国区双料Elite合作伙伴,直接对接原厂技术资源,剥离中间溢价,实现成本优化与技术保障。

03、算力层:以平台化调度提升有效利用率与交付稳定性

推理服务的核心不仅是“峰值性能”,更是“在真实负载下稳定输出”。因此,算力层更需要平台化能力:统一纳管、弹性调度、故障隔离、容量规划与全生命周期运维。弘信电子围绕智算平台化方向推进异构资源的统一调度与交付能力建设。依托自研智算云平台实现算力池化,将资源空转率从行业平均的60%大幅降至15%以内,极致释放硬件有效产出能力。深度融合容芯致远AGC(以GPU为核心的AI计算体系)架构,将系统中GPU与CPU的配比提升至最高32:1,打破传统“内存墙”与“通信墙”。深度搭载华为昇腾推理卡的燧弘算力服务器SH-SF-43H01服务器采用无主板设计,形成“数据不出域、部署更敏捷、交付更可控”的本地化开箱即用AI服务新模式,实现算力密度与传输效率的双重突破。

打开网易新闻 查看精彩图片

04、模型层:以HonMaaS为载体,推动“可用模型”到“可用服务”

模型落地的难点往往不在“有没有模型”,而在“模型能否稳定运行、可控运维、可管理迭代”。HonMaaS平台对DeepSeek-V4、通义千问、智谱等百万级超长上下文模型进行全链路优化,包括KVCache优化和算子融合技术。基于DeepSeek-V4模型,可实现推理延迟降低40%,单节点每秒可稳定产出2000Tokens。公司通过“芯模双向协同”机制,以“算子—框架—驱动—硬件”一体化联调方式,与模型厂商共同优化底层算子,确保模型高效运行与稳定交付。

05、应用层:把Token变成“可交付的行业能力”

“Token工厂”的终点不是产出Token本身,而是把Token转化为行业结果:效率提升、流程重构、成本下降、体验升级。弘信电子面向医疗、视频生成、智能体等高需求场景,以“平台能力标准化+场景能力产品化”的方式把推理产出交付到业务流程中,形成价值闭环。

生态共振:多维场景实证,转化极致智力产出

随着“Token工厂”战略的深入实施,弘信电子的技术红利正通过生态共振,精准转化为各行各业的“交钥匙”级商业价值。

01 医疗智算的“精准点火”

由燧弘华创联合泰达生物研发的“羲和一号”端边诊疗一体机,内置的“羲和一号”大模型由北三院、北大AI学院与泰达生物子公司博雅全健联合研发,基于北三院百万级真实病案数据训练,拥有千亿级参数规模。通过“Token工厂”提供的边缘推理能力,诊室端可实现秒级预问诊与精准分诊,在确保隐私数据不出域的前提下,大幅缓解医疗资源的供需矛盾。这一场景的关键不在“更大参数”,而在“端边推理可控交付”——把时延、隐私与稳定性纳入同一工程体系内实现最优解。

打开网易新闻 查看精彩图片

02 多模态与视频生成的“效能提升”

针对文生视频、视频渲染等极度渴求带宽与吞吐量的场景,弘信电子与英特尔(Intel)战略合作建立的联合实验室,基于Gaudi 2e硬件架构对 恒星AI进行系统级优化,使其综合算力成本降低45%。而对于Hobby这种拥有10余个多模态业务场景的AI社交和心理健康平台,作为典型的Token消耗大户,其每分钟产生的多模态交互Token高达百万量级。弘信电子通过协助其从公有云迁移至燧弘庆阳IDC,利用异构集群的极高并发能力,支撑其在成本红线之内的规模化商业扩张。该类场景验证“Token工厂”的核心价值:不是追求单点极限性能,而是用稳定吞吐与成本确定性,把多模态业务从试点推向常态化运营。

03 智能体的“连续性保障”

北冥星眸等深耕智能体(Agent)领域的企业,其OpenClaw应用具有显著的“高频交互、多轮循环”特征。在这种模式下,用户一条简单的复杂指令往往会触发后台上百轮的模型内部调用,这种几何级数增长的Token需求对响应时延有着近乎苛刻的要求。弘信电子通过AGC架构的超高G:C配比支持与HonMaaS的智能多模型路由,确保Agent在任务执行过程中智力输出不中断、不降速,真正实现Agent应用的工程化落地。对Agent而言,“不中断、不降速”本质上意味着可预期的服务等级(SLA)与可复用的工程能力,这也是从Demo走向规模交付的分水岭。

AI产业正从“技术展示”走向“推理交付能力竞赛”。弘信电子通过“Token工厂”战略,把算力、芯片、模型和场景应用贯通,实现从基础资源提供到全栈智力工业化的跃迁。未来,公司将持续完善全栈能力,让每一份电力与算力都能转化为可规模、可负担、可持续的智力产出,加速AI赋能千行百业的进程,推动新质生产力加速形成。