【ZOL中关村在线原创访谈】伴随着OpenClaw这样的智能体AI落地,以及多模态大模型日新月异的超凡迭代速度,2026年的AI赛道,早已跨过尝鲜和演示的阶段,一头扎进与真实生产力、本地部署和稳定可靠强关联的深水区,并且进入了以业务实效、规模化落地和全链协同为核心的务实发展新周期。此时,普通AI PC虽然亦可满足日常办公、创作的AI需求,但面向专业用户、科研团队、以及规模化的企业部门级智能体应用,则需要一套真正为干活而生的算力底座。
就在4月23日,英特尔新一代AI工作站平台迎来至强600和锐炫Pro B70两大王牌硬件,前者最高配备86个性能核,多线程性能较上代提高61%,并且给到了完整的128条PCIe5.0通道,每核内置的AMX引擎原生支持FP16,可以说是为重负载AI计算奠定了坚实基础。而后者则是基于英特尔Xe2架构打造的高显存、高算力GPU,它配备32GB超大显存,AI算力峰值高达367 TOPS,应对AI推理场景中的多模态大模型更加轻松,且支持更长的上下文窗口,高吞吐与快速响应的并发AI应用场景下,能够为企业级用户带来高效体验。
在至强600以及锐炫Pro B70发布会后,我们与英特尔中国区技术部总经理高宇、英特尔中国区显卡和AI高级产品总监徐金平以及技术专家王巍巍展开了深度对话。这不是一场参数堆砌的产品宣讲,而是一次关于AI工作站到底是什么、该解决什么问题、未来走向何方的底层思考。
·先厘清一个关键认知:AI PC≠AI工作站
市场最容易混淆的,是把能跑AI软件与专业AI生产力挂钩。但是在英特尔看来,这是两条完全不同的产品逻辑。
AI PC的核心是日常应用为主,AI为辅。它服务于最广泛的用户,办公、学习、娱乐是第一使命,AI则是用来辅助提升效率、优化体验,是一种锦上添花。
而AI工作站的核心是AI为核心,生产为本的专业算力基座。它的存在就是为了完成高负载、高确定性、高安全性的专业任务,例如跑大模型、做AIGC批量生产、处理工业级渲染、支撑企业RAG与智能体落地。它不追求普适,而是更加追求可靠、耐造、稳定、并且可以适配在不同的工业产线里。
这种定位差异,直接决定了硬件设计的出发点:不堆性能,而是适配生产场景的真实痛点去解决真实应用环境下遇到的各类问题。
英特尔是当前具备全栈产品解决方案优势的芯片企业,在AI PC、工作站以及数据中心侧均有产品布局,并且覆盖了云边端全场景,不同的AI解决方案可以满足不同客户的AI需求。
·至强600:真正不偏科的AI算力底座
专业领域看似垂直,但从来不是只有单一需求。有人要跑AI大模型,有人要做科学计算,有人既要仿真又要推理,这就需要一颗处理器既要算力强,又要能够支持多种精度的运算。但在HPC和AI两个方向上,至强600有怎样的表现?
英特尔中国区技术部总经理高宇给出了肯定的答案:“至强恰恰这两方面都很强。在双精度上,毋庸置疑至强的表现肯定是最好的,这是为什么今天看到很多HPC的集群,至强在全球还是占了相当高的市场份额。同时,至强拥有AMX指令集,所以我们支持INT8、BF16、FP16矩阵运算的直接运行。这部分对HPC没有帮助,但是对AI至关重要。所以至强从架构一开始,就把两者都考虑进去了,再加上我们现在的MRDIMM内存,针对HPC的算子库MK、oneCCL以及针对AI的OneAPI、OpenVINO等等,同时还有128核、96核的产品,来满足这种多元化的需求。”
不难看出,英特尔至强600从架构层面打破了HPC与AI的取舍。
它没有为了AI放弃科学计算,依然保留强悍的FP64双精度能力,维持在全球HPC集群中不可替代的地位。同时,它把AMX矩阵加速引擎深度融入核心,让INT8、BF16、FP16的AI运算成为原生能力,不用外挂加速卡也能具备可观智能算力。
英特尔的思路很清晰:至强不是做专精一条路的处理器,而是做能覆盖科研、工程、AI、工作站全场景的通用算力基石。
·锐炫Pro B70:大显存是当代AI生产力刚需
如果说至强600是大脑,那么锐炫Pro B70 GPU就是新一代AI工作站的肌肉与拳头。
它最为可观的参数就是提供了32GB超大显存,在当前的GPU产品中有着极大优势,它回应了行业最迫切的痛点,即本地部署大模型所需的高显存。
对于个人创作者而言,单张Pro B70足够支撑本地AIGC、长文本、高并发推理,无需依赖云端,不用忍受模型漂移,不用担心中断与延迟。对企业而言,4张Pro B70就能提供总计128GB显存容量,可稳稳扛起100B+级模型本地运行,并留出充足KV Cache支撑多用户并发,这是同价位多卡24GB显存方案难以实现的。
徐金平在访谈中直言,未来专业显卡的显存还会继续大幅提升。英特尔背后的判断很明确:企业一定会走向本地部署,本地部署一定会要求更大显存。数据安全、服务稳定、成本可控,每一条都在把AI算力从云端拉回本地。而锐炫Pro B70的价值,就是把企业级本地AI的门槛,从昂贵、复杂、专属集群,拉到一台工作站就能实现的水平。
·真正的挑战不在硬件,而在生态
专业GPU市场一直以来绕不开的就是CUDA构筑的非常坚实且广泛的生态壁垒。英特尔对此并未回避,反而给出了更底层、更长期的破局思路,也就是顺应生态走向开放。
其实整个行业都不希望被单一硬件锁定。PyTorch、vLLM、SGLang的流行,本质是生态在追求弱化硬件层面的关联性。英特尔的策略也很明确,就是站在这一趋势之上拥抱更为开放的生态,这里分为三个层面:
第一层,依托通用框架,让应用不用关心底层硬件。基于PyTorch与vLLM的服务,可以平滑跑在英特尔显卡上,开发者不用被绑定在特定生态里。
第二层,用更开放的编程工具降低迁移成本,比如支持OpenAI Triton,一套Kernel代码可跨硬件编译。
第三层,用OneAPI、OpenVINO把底层能力封装好,做到新模型早上发布、中午兼容,把适配成本降到最低。
英特尔的目标不是再造一个 CUDA,而是让用户可以自由选择硬件,不被生态绑架。对专业用户而言,这比单纯的性能提升更有长期价值。
·CPU+GPU协同打造真正的异构智能
英特尔至强600与锐炫Pro B70的同期发布,可以看作是英特尔CPU和GPU协同构筑异构智能算力底座的关键一步。至强600的AMX与锐炫Pro B70的XMX各自承担最擅长的工作,CPU负责预处理、后处理、任务调度,把非核心但繁琐的计算卸载出去,提升整体吞吐量。而GPU则去扛最重的矩阵运算与AI推理,高效协同为现代企业用户和专业个人用户提供高效的AI计算平台。
对此,高宇举了一个已经落地的、极具代表性的案例:“与趋境合作的MoE模型混合加速。它可以将“热专家”放在GPU上高速运算,而“冷专家”则存在CPU的主存里避免GPU显存占用。在运算的时候,如果点中了热专家,那就在GPU上运算了,如果说不小心点中了冷专家,也不用把专家移到GPU上,就直接在CPU上用CPU的AMX来推理运行,就节省了数据来回搬运的时间。”可见,这种CPU+GPU协同的效率,是单纯堆GPU难以实现的。
而这也是英特尔借助全栈能力解决单类芯片解决不了的问题的一个典型案例。
·工作站不该是“傻大黑粗”,要小、要静、要好用
以往提及工作站,给人的第一印象就是笨重、无关乎设计感。但是随着芯片能效的不断提升,更小的芯片带来了更强的计算能力时,这种理念就发生了转变。而且在当下这个全民AI的时代里,AI生产力不该只属于机房与大型团队。
本次访谈中一个细节是:英特尔正在着力推动工作站走向小型化、静音化、桌面化。例如单卡机型可以控制在8L以内、噪音控制在35dB以下;双卡可以控制到14L、4卡可以控制到35L,并且大量转向液冷方案,安静到可以放在办公桌上使用。
高宇坦言:“创作者不需要一个占满工位、轰鸣作响的机器。他们需要算力足够强、占地足够小、声音足够轻、开箱就能用的工具。”
为此,英特尔把生态适配做到更前端,例如让ComfyUI原生支持英特尔GPU,买来开机就能直接跑AIGC;同时面向小规模团队与个人创作者,英特尔可以直接提供技术支持,让硬件能力不被浪费。
英特尔认为,AI的意义是降低门槛,不是提高复杂度,这正是新一代AI工作站最朴素的初衷。
·结语
当前算力市场处于一个特殊阶段,智能体AI爆发式崛起,需求远超行业预判,不过CPU与内存等芯片紧缺仍将持续。但越是在这样的周期,越能看出谁在真正解决长期问题。
英特尔没有追逐短期热点,而是沿着一条清晰的路径推进:用至强600提供可靠、通用、兼顾HPC与AI的全能算力底座;搭配锐炫Pro B70 GPU来满足大显存、本地AI大模型部署以及企业级AI的刚需;并且力求用开放生态打破CUDA锁定;用小型化、静音化、开箱即用来提升体验、降低门槛。
所以当AI步入生产力的深水区,专业用户需要的不是一台能跑AI的电脑,而是一台为AI而生的专业工作站。这,正是英特尔新一代硬件平台想要重新定义的事情。
热门跟贴