在生成式 AI 与大模型加速演进的背景下,开发者对算力的需求正在发生变化——不只是更强的算力,而是更贴近开发现场、更可控、更低门槛的 AI 基础设施。
在 CES 2026 上,NVIDIA 展示了其最新桌面级 AI 超级计算机 DGX Spark 的持续进化成果。通过软件、模型与生态的协同优化,DGX Spark 正在把原本属于数据中心的 AI 能力,带到开发者的桌面之上。
把大模型“搬回本地”,桌面端也能运行百亿参数模型
DGX Spark 基于 NVIDIA Grace Blackwell 架构打造,采用紧凑的桌面形态,却配备了 128GB 统一内存。通过两台系统互连,开发者可获得 256GB 的组合内存空间,从而在本地运行过去只能在数据中心部署的大模型。
在 CES 现场,NVIDIA 展示了在 DGX Spark 上运行 100B 参数级别模型的能力。这一突破的关键,在于 Blackwell 架构引入的 NVFP4 数据格式:
在几乎不损失模型智能的前提下,大幅压缩模型体量并提升推理吞吐。
以 Qwen-235B 模型为例,在双 DGX Spark 配置下,使用 NVFP4 精度并结合推测解码,相比 FP8 精度 性能最高可提升 2.6 倍,同时 内存占用降低约 40%。这意味着,开发者不仅能跑得动更大的模型,还能在本地同时运行多个 AI 工作负载,显著提升整体响应速度。
软件与开源生态协同,让桌面 AI 更“即插即用”
硬件之外,DGX Spark 的另一大核心竞争力在于 软件与开源生态的深度整合。
系统预配置了 NVIDIA AI 软件栈与 CUDA-X 加速库,覆盖模型构建、微调、推理与数据科学全流程。包括 NVIDIA Nemotron 3 等最新开源模型,均可在桌面端直接运行和调优。
与此同时,NVIDIA 还通过 Playbook 的形式,降低开发者的上手门槛:
从本地运行 30B 参数 MoE 模型、视觉语言模型实时分析,到机器人仿真、量化金融、基因组学分析,都提供了清晰、可复用的实践路径。
对于需要分布式能力的场景,两台 DGX Spark 通过 ConnectX-7 网络互连,提供 200Gbps 带宽,可支持最高 70B 参数模型的本地分布式微调。
NVIDIA Brev:连接本地与云的 AI 开发入口
为了让本地算力具备更灵活的使用方式,NVIDIA 还引入了 Brev 这一面向开发者的 AI 访问与管理平台。通过 Brev,开发者可以安全地远程访问 DGX Spark,将本地桌面级算力纳入统一的 AI 开发环境中,并通过一键式配置快速启动完整的 AI 工作流。
在 CES 2026 上,NVIDIA 展示了 Brev 对本地计算资源的支持能力:在完成注册后,DGX Spark 可像云实例一样被远程调用,并支持团队级共享访问权限。在混合部署场景下,开发者还可以通过路由机制,将对隐私与安全要求更高的任务保留在本地运行,而将通用推理工作流分配至云端前沿模型,从而在 性能、成本与数据安全之间取得平衡。这种本地与云协同的模式,也为桌面端 AI 的规模化使用提供了新的可能。
不只是开发者,创作者也在受益
DGX Spark 的应用边界并未止步于 AI 开发。
在内容创作领域,视频生成与扩散模型对显存和算力的需求极高。通过 NVFP4 与 NVFP8 优化,DGX Spark 能够将高负载 AI 工作从创作者的笔记本电脑或 PC 中“卸载”出来。
CES 现场的演示显示,在视频生成任务中,DGX Spark 相比顶配 M4 Max 的 MacBook Pro 最高可实现 8 倍加速,同时让本地设备保持流畅响应。这种“桌面端 AI 卸载”的模式,正在成为创作者的新工作流。
此外,RTX Remix 等开源平台也开始借助 DGX Spark,为 3D 艺术家与 Mod 开发者提供生成式 AI 能力,加速资产制作与实时预览。
本地 AI,正在成为一种趋势
随着对数据安全、IP 控制与低延迟推理的需求上升,越来越多企业开始重新评估 AI 部署位置。
在 CES 期间,Hugging Face、IBM、JetBrains 等生态伙伴,展示了 DGX Spark 在 本地推理、RAG 工作流、AI 编码助手与实体智能体等方向的应用实践。
从桌面级 AI 助手,到结合机器人形态的交互式智能体,本地 AI 正在从“补充方案”走向“主流选择”。
NVIDIA 也宣布,DGX Spark 及基于 GB10 的 OEM 系统已纳入 NVIDIA 认证系统计划,并通过 Acer、ASUS、Dell、Lenovo 等多家合作伙伴渠道正式发售。
从更大的模型,到更低的门槛,再到更贴近开发现场的算力形态,DGX Spark 所代表的,并不仅是一台桌面级 AI 设备,而是一种 “本地 AI 优先” 的新范式。
当百亿参数模型不再被锁在云端与数据中心,AI 创新,也将真正回到开发者和创作者的桌面。
最后,NVIDIA 也提供了资源库、软件的重大更新:
DGX Spark playbooks 可帮助开发者快速启动真实世界的 AI 项目。在 CES 上,NVIDIA 正在扩展这一资源库,新增 6 个 playbook 并带来 4 项重大更新,涵盖最新的 NVIDIA Nemotron 3 Nano 模型、机器人训练、视觉语言模型、使用两台 DGX Spark 系统进行 AI 模型微调、基因组学以及金融分析等主题。
NVIDIA AI Enterprise 软件支持现已面向来自制造商合作伙伴的 DGX Spark 和 GB10 系统开放。该套件包含用于 AI 应用开发和模型部署的库、框架和微服务,以及用于 GPU 优化的 operator 和驱动,可实现快速、可靠的 AI 工程与部署。相关许可证预计将于 1 月底推出。
热门跟贴