引子:

无论是2026年伊始的AI应用入口争夺战,还是近期业内爆火OpenClaw(原Clawdbot/Moltbot)项目都预示着,AI技术正在进入广泛的生产性落地阶段。由此,行业的发展侧重点也将从过往的大小模型训练/微调转型为“训推并重+应用爆发”。换言之,如何利用过往积累的AI技术成果,实现快速开发、快速迭代将成为组织发展的新风口。而在这一阶段,开发者也将扮演越来越重要的角色。

那么,AI时代的开发者需要怎样的设备来提质增效呢?在算力为王的背景下,过往那种一台电脑、一杯咖啡就能“改变世界”的开发场景还能复现吗?

一封写给AI开发者的情书

开发者是个极为广泛的群体,既包含大中小企业里的全职软件工程团队,也包括高教等场景中广泛存在的各类实验室、学术小组。

对于AI开发者而言,算力集群和8卡服务器虽然性能强劲,但它们太大、太重、太贵、太远、太难配置,很难完全满足快速开发、敏捷开发的需求;而传统PC又因为AI算力和显存的不足而无法支撑工作。

面对时代风口,所有类型的AI开发者都在期待一台既能拥有超强算力和大容量显存,又能摆在桌面的全新设备;而这正是联想推出ThinkStation PGX AI工作站(以下简称联想PGX工作站)的核心目的。

打开网易新闻 查看精彩图片

作为一款以全行业AI开发者为目标用户的小型化产品,联想PGX工作站将磅礴算力浓缩进了1升机箱之中,并且保持了低功耗、低噪音特性。这样的特性使其可以被部署在各类办公区、实验室、教室及边缘场景中,适用于各类中小型模型和AI应用的推理场景。

为了同时满足算力、体积和功耗目标,联想PGX工作站在1升体积的机箱内搭载了一颗NVIDIA GB10 Grace Blackwell超级芯片;其不仅集成了20核ARM处理器,更提供了一颗包含6144个CUDA核心的Blackwell架构GPU。在FP4精度下,联想PGX工作站可以提供1 PFlops的峰值算力,且功耗不足240瓦。

同时为了满足大模型等应用的需求,联想PGX工作站还集成了高达128GB的LPDDR5x统一内存,让AI应用不会轻易“爆显存”。

打开网易新闻 查看精彩图片

在此基础上,联想PGX工作站还能借助内置的NVIDIA ConnectX-7智能网卡组建双机集群,继而实现算力和统一内存容量的倍增,让用户可以轻松应对更大规模的应用。而小体积+低功耗+静音的设计也让这种双机集群的升级方式丝毫不会影响其易部署的核心特性。

打开网易新闻 查看精彩图片

联想ThinkStation PGX QSFP Link Cable

由于工作站内部的算力硬件均来自NVIDIA,因此工作站在软件层面也保持了对CUDA生态的完整兼容,可有效避免“一次开发,到处调试优化”的尴尬局面,让开发者编写的模型和应用既能在广泛的应用场景中获得应用,也无需担心后期切换生态所带来的各类隐性成本。

基于这些核心特性,我们便能总结联想PGX工作站的核心特性:

用强大的本地算力提升开发者的工作效率;

小巧的体积和更低的功耗、噪音来提升工作站在各类场景中的适应性;

先进网络提升硬件和算力的可扩展性;

用更主流的技术生态来构建教学-开发-应用之间的一致性。

而拥有这些典型特性的联想PGX工作站正是开发者群体在开发、研究、教育教学等场景中所期待的新一代AI硬件,是联想对AI“短平快”理念的绝佳诠释。

小巧,才能融入所有场景在场景中发挥价值

联想PGX工作站形态与各类工控机相仿,体积仅为1升左右(15*15*5.05厘米),能够轻松融入办公室桌面、实验室、生产车间等所有环境,作为中小型模型推理和AI应用开发等AI业务流的算力核心。

打开网易新闻 查看精彩图片

企业办公场景中,联想PGX工作站可以放置在办公桌上,连接键鼠和显示器,作为AI程序的开发和调试终端来使用;其安静的运行效果完全不会影响办公区的正常办公环境。又或者,多名用户可以通过虚拟桌面、命令行等方式远程访问联想PGX工作站,获得更便利的使用体验。

制造业场景中,联想PGX工作站可以像所有工控机一样,部署在产线之中,基于计算机视觉模型来成为探伤和缺陷识别功能的算力核心。凭借出色的制造工艺和严格的质量测试,联想PGX工作站能够在严苛的工作环境中保持稳定。

高校和实验室场景中,联想PGX工作站则能凭借更高的性价比和完善的售后服务成为实验室、学术小组等的共享算力核心,在繁重的教学和研究工作中发挥持久价值。

原汁原味的生态,开箱即用的体验

1. 联想PGX工作站外观

打开网易新闻 查看精彩图片

联想PGX工作站整体外观是一个硬朗的“方盒子”。机身正面是蜂巢形态的进气格栅以及ThinkStation系列铭文和PGX的产品名称,灰+黑的配色有着明确的商务属性简洁干练,能毫不违和地与各种商务场景融为一体。

打开网易新闻 查看精彩图片

工作站所有接口均在机身背面,从左至右分别是两个200G QSFP网络模块接口,一个10Gb RJ-45网线接口,一个HDMI 2.1a视频输出口,4个USB TYPE-C 20G接口,以及一个电源按钮。

小巧体积+干练设计+丰富接口使得联想PGX工作站既能在外型层面提升与各类场景的适应性,又能满足实际开发和教育教学过程中用户对连接性的多样化需求。

2. 联想PGX工作站硬件配置软硬件配置

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

硬件层面,联想PGX工作站不仅用20核CPU+Blackwell GPU+128G统一内存的配置将1升工作站的算力水平推向了新高度,更借助两个支持RDMA和RoCE功能的200G QSFP网络模块保证了双机集群的网络带宽,避免了网络拥塞所带来的潜在性能损失。

在软件层面,工作站则通过预装的全套CUDA环境、集成式IDE开发环境和硬件监控Dashboard做到了原汁原味和开箱即用,能大幅缩短开发者和教育用户的配置和准备时间,进一步降低了AI工作站的使用门槛。

联想PGX工作站,全能的AI体验

我们将通过Ollama、基于ComfyUI的Stable Diffusion和Wan系列模型、ResNet算法等环节来体验联想PGX工作站在各类AI应用中的性能表现。

  1. 大语言模型

使用Ollama来部署各类主流模型,使用“200字简述企业为什么需要AI”作为提示词,上下文长度设置为2K,来测试不同大模型的每秒token生成量、首token延迟、统一内存占用情况,以及统一内存中的显存占用。

Qwen3:4b

打开网易新闻 查看精彩图片

在很多边缘场景常用的Qwen3:4b模型中,联想PGX工作站能够实现67.59 token/s的性能,首token延迟为27.3ms;此时,统一内存占用量为10.42GB(含操作系统占用),其中显存占用量为3.2GB

Qwen3:14b

打开网易新闻 查看精彩图片

Qwen3:14b是一款中体量模型,已经能够承担不少复杂的AIGC任务并作为AI Agent的基础参与业务流应用。在运行该模型时,联想PGX工作站能够实现20.58 token/s的性能,首token延迟为245.5ms;此时,统一内存占用量为17GB(含操作系统占用),其中显存占用量为9.4GB

DeepSeek-r1:32B

打开网易新闻 查看精彩图片

作为风光无两的开源大模型系列产品,DeepSeek已经成为很多用户切入大模型赛道的基石。而在中等体量的32B模型中,联想PGX工作站能够实现9.55 token/s的性能,首token延迟为156.7ms;此时,统一内存占用量为26.79GB(含操作系统占用),其中显存占用量为20GB

DeepSeek-r1:70B

打开网易新闻 查看精彩图片

70B大模型是各类高精度、高复杂度场景的理想选择,不少专业领域大模型、内容创作大模型都是基于70B的开源模型微调而来。而在DeepSeek-r1:70B模型的测试中,联想PGX工作站能够实现4.08 token/s的性能,首token延迟为882.9ms;此时,统一内存占用量为48.91GB(含操作系统占用),其中显存占用量为41.7GB

Qwen3:30b-A3B

打开网易新闻 查看精彩图片

Qwen3:30b-A3B是一款经过Q4量化的MoE模型,虽然参数总量达到了30B,但同时激活的参数只有3B,能够很好地平衡精度和性能。在这款模型的测试中,联想PGX工作站能够实现74.08 token/s的性能,比4B模型还要高,首token延迟为136.07ms;此时,统一内存占用量为24.67GB(含操作系统占用),其中显存占用量为18.2GB

小结:

从以上不同参数量的多款大模型测试中我们能够发现,无论是4B的“小模型”还是70B的“大模型”,其统一内存占用量始终没有超过50GB,都不会在联想PGX工作站上出现“爆显存”的现象。而在MoE技术的加持下,联想PGX工作站则可在保证性能的前提下,挑战更大参数量的模型推理应用。

此外,由于联想PGX工作站预装了NVIDIA CUDA Toolkit、NVIDIA Container Toolkit等一系列实用工具,因此在建立ollama测试环境时只需简单拉取对应镜像即可实现对GPU的完整调用,而无需再进行额外的编译或调试。此时,NVIDIA Dashboard的实时监控也显示,在通过ollama加载大模型时,GPU使用率能够轻松维持在95%左右,不会出现GPU闲置的情况。

换言之,无论在性能、统一内存容量还是在部署的简易程度方面,联想PGX工作站都能满足开发者群体快速部署、快速应用的需求。而由此节省下来的时间和资金更是AI时代的珍贵资源。

  1. 文生图、文生视频大模型

通过ComfyUI加载各类文生图、文生视频大模型和对应的工作模版来测试联想PGX工作站在对应场景中的内容生成时间。

Stable Diffusion 3.5文生图大模型

打开网易新闻 查看精彩图片

在文生图测试中,我们使用ComfyUI加载SD3.5_large_fp8_scaled模型(经过FP8量化,参数量约为8B)和默认模板来生成图像。关键词如下:

正向prompt:a bottle with a pink and red galaxy inside it on top of a wooden table on a table in the middle of a modern kitchen with a window to the outdoors mountain range bright sun clouds forest

负向prompt:none

在这一设置下,联想PGX工作站生成4张512*512图片的总耗时为30.58秒;运行时统一内存占用量为24.15GB,其中14.55GB被用作显存。

Wan 2.2文生视频大模型

打开网易新闻 查看精彩图片

在文生视频测试中,我们同样使用ComfyUI加载Wan2.2 14B FP8文生视频模型,以640*480分辨率和24FPS生成一段5秒钟的视频。关键词如下:

正向prompt:Beautiful young European woman with honey blonde hair gracefully turning her head back over shoulder, gentle smile, bright eyes looking at camera. Hair flowing in slow motion as she turns. Soft natural lighting, clean background, cinematic slow-motion portrait

负向prompt:色调艳丽,过曝,静态,细节模糊不清,字幕,风格,作品,画作,画面,静止,整体发灰,最差质量,低质量,JPEG压缩残留,丑陋的,残缺的,多余的手指,画得不好的手部,画得不好的脸部,畸形的,毁容的,形态畸形的肢体,手指融合,静止不动的画面,杂乱的背景,三条腿,背景人很多,倒着走,NSFW

联想PGX工作站全程耗时3分49秒。生成过程中统一内存占用量72.64GB,其中53.8GB被用作显存。

小结:

常见的文生图大模型对于联想PGX工作站已是“小菜一碟”。而对于要求更高的Wan2.2 14B FP8文生视频模型,PGX工作站也同样举重若轻;77G的统一内存用量也仅达到了工作站内存容量的60%。要知道过去只有使用全塔机箱和顶级GPU的大型工作站才能刚好满足Wan2.2 14B模型对显存的需求,而现在联想PGX工作站则把这一能力直接浓缩在了1升机箱之内,放在了开发者的桌面,不得不感叹技术进步的魅力。

  1. ResNet50测试
打开网易新闻 查看精彩图片

在使用联想PGX工作站通过ResNet50模型进行图像识别时,模型成功识别出了上传的车辆照片为福特T型,耗时仅为455ms。此时统一内存占用为7.5GB,其中显存占用仅为400MB左右

小结:

使用未经量化和细致优化的标准ResNet50模型进行图像识别时,联想PGX工作站已经表现出了极致的性能。这意味着在经过详细优化之后,工作站的算力水平已经能够满足各类生产制造类用户在产品缺陷识别、质量监控等边缘场景中的实际生产需求。而工作站本身小体积、低功耗的设计也进一步增加了其在边缘场景中的应用潜力。

  1. 功耗温度及噪音

在22摄氏度、30分贝底噪的安静室内:

待机空载状态下,联想PGX工作站(含适配器)功耗仅为40瓦,机身顶部中间位置的温度为26.4摄氏度,而60厘米距离的人位噪音也被30分贝的环境底噪所完全掩盖。

而在满载情况下,联想PGX工作站(含适配器)功耗也仅为190瓦,机身顶部中间位置的温度为29.1摄氏度,60厘米距离的人位噪音为36.5分贝

总结:桌面上的微型AI超算,开发者手中的AI神器

经过文生文、文生图、文生视频、AI视觉等多维度的测试,我们可以说,将联想PGX工作站绝对是一款能摆上桌面的微型AI超算。对于开发者而言,联想PGX工作站则满足了其对设备的几乎全部想象。

实际测试过程中,笔者也充分感受到了联想PGX工作站的强大。20核Grace处理器和Blackwell架构GPU的组合表现优秀,在同时运行多个容器并持续重负载时依旧能保持基础操作的流畅。这意味着开发者可以一边跑大模型,一边写代码,效率更高。

同时,巨大的128G统一内存也完全超过了“够用”层级,使得笔者可以直接跳过对模型参数量和显存需求的各类换算,直接“挑大的用,挑好的用”。而对于开发者来说,更高的统一内存容量也能减少对比选型时的各种限制,以及频繁的模型加载/卸载过程。

另一方面,联想PGX工作站超静音表现则完全超出了笔者的预期。即使身处30分贝底噪的安静室内(相当于夜间卧室的噪音水平),低负载的联想PGX工作站也能完全融入底噪,无法被人耳察觉。即便满负载运行,36.5分贝的噪音水平也要比绝大多数办公室、实验室的正常底噪要低,更是多数工作站无法企及的水平。如果AI开发者和企事业单位想构建一个更安静优雅的开发办公环境,联想PGX工作站是绝对的不二之选。

打开网易新闻 查看精彩图片

此外,联想PGX工作站预装的完整CUDA环境也让整个测试流程异常顺利。在运行Ollama、ComfyUI等流行应用时,只需拉取ARM版的官方或社区镜像就能顺利完成测试,GPU也能跑满负载,不会遇到第三方系统中常见的CUDA版本不对、环境依赖缺失、GPU无法启用等现象,节省了大量调试和重编译时间。而这种开箱即用的体验对于开发者和各类AI项目来说也是提质增效的关键一环。

作为大厂精品,PGX工作站也背靠着联想的庞大产能和顶尖服务能力,而这也让联想PGX工作站工作站成为了一款有设计、有技术、有供应、有保障的AI工作站标杆;不仅适合企业、高校等各类单位为开发者批量采购,更是组织拥抱AI新时代的全新着力点。