来源:市场资讯
(来源:智微智能科技)
当前,AI技术正以前所未有的速度重塑千行百业。从大模型训练到智能体应用,从多模态内容生成到企业级代码开发,企业对AI计算的需求已不再局限于云端算力,而是愈发追求本地化部署、高性能输出与高安全保障。
针对这一趋势,在近日举行的“2026英特尔中国区ODM&OEM客户高峰论坛”上,智微智能携手英特尔正式发布Gaudi2E四卡液冷工作站,为企业级AI工作负载提供了一站式、开箱即用的私有化算力解决方案。
英特尔4卡AI工作站解决方案
Xeon-W + 4 Gaudi2E
在论坛主题会议环节,英特尔中国区技术部总经理高宇系统分享了英特尔最新技术战略,以及2026客户端AI创新成果。他重点介绍了英特尔基于Xeon-W平台打造的4卡AI工作站解决方案,其中核心配置为Intel Xeon-W处理器 + 4张Intel Gaudi2E加速卡,专为高性能AI训练与推理优化设计。Gaudi2E加速卡搭载96GB HBM高带宽内存,具备强大的显存容量与AI推理性能,能够高效支撑三大“AI工厂”级应用场景:
0
1
Token工厂
该方案已完成对MiniMax 2.5模型的深度适配,可实现每日5亿至10亿级别Token的生产能力,足以驱动“龙虾”等智能体执行大规模文本生成、语义理解与复杂任务。
02
视频工厂(电影级)
基于Wan2.2多模态视频生成模型,工作站支持海量、定制化、高质量视频内容的批量生产,满足影视预告片、广告创意、数字人播报等专业级内容制作需求。
03
代码工厂
支持Vibe Coding的本地化部署,在企业内网环境中提供安全、高效的AI辅助编程能力,显著提升开发效率,同时确保核心代码与业务逻辑不外流。
目前,该方案已率先落地于英特尔与智微智能共同开发的工作组级AI工作站。其机箱体积在35L至50L之间,在实现强劲算力的同时,兼顾了办公小空间所需的部署灵活性。
重磅新品:G2E液冷工作站
在随后的主题演讲中,智微智能副总经理刘迪科展示了智微在Intel工作站领域的全平台开发实力,并正式发布了双方深度合作的新品——G2E液冷工作站。
该工作站不仅承载了“Xeon-W + 4 Gaudi2E”方案的卓越性能,更通过一体化液冷设计实现了高效散热与极致静音,完美适配办公室、实验室等对噪音敏感的环境——其采用Intel W790/W890平台,配备Xeon-W处理器、4张Intel Gaudi2E 96G HMB2高速缓存加速卡辅以4卡顶部卡件互联支持,同时以极低的64GB DDR5内存(可扩展至2TB),运行Minimax M2.5 2300亿参数大模型。
三大核心应用场景,全面适配私有化AI
G2E液冷工作站全面适配AI研发与数字内容生产需求。同时,基于产品每日5亿至10亿级别Token的生产能力(构建起“Token工厂”),可以作为“龙虾池”,为大型企业提供规模化算力支撑,支持统一管理和调度,满足多用户、多任务并发需求。产品可覆盖三大企业级场景:
0
1
高效代码生成
作为本地化AI编程助手,提升研发效率,保障代码安全。
02
Agentic AI 智能体任务
支持智能体复杂多步推理与工具调用,赋能企业自动化流程。
03
电影级文生视频创作
支持多模态模型驱动,高效产出高品质视频内容。
为行业提供私有化AI部署新路径
智微智能与英特尔的此次联合发布,标志着企业级AI工作站从“可选项”迈向了“高能效、高安全、易部署”的成熟落地阶段。
无论是互联网公司的算法团队、金融机构的大模型风控部门,还是影视制作机构的AIGC内容生产线,G2E液冷工作站都能以开箱即用、数据不出域的方式,帮助企业构建自主可控的AI算力基础设施。
热门跟贴