电脑这东西玩久了,有时候真觉得挺无聊的。显卡年年换代,跑分软件里的数字涨得挺欢,可日常用起来,体感提升远没那么刺激。尤其是AI这波,云端模型确实强,可自己的数据不敢往上放,离线又跑不动,不上不下的很难受。

所以看到技嘉这个叫AI TOP ATOM的小铁盒时,我第一反应不是兴奋,而是困惑。这玩意儿长得跟之前的NUC几乎一个模子,150毫米见方,比手机宽不了多少,银灰色金属壳,磨砂面,没有任何灯效,放在桌上不注意还以为是外置硬盘。技嘉管它叫“个人AI超级电脑”,说实话我对“超级”这词已经免疫了。

打开网易新闻 查看精彩图片

但真正用起来之后,事情变得有点不一样了。

这个产品其实是NVIDIA那个DGX SPARK的定制版,但技嘉把张扬的土豪金换成了低调的银灰色,我觉得这步走对了,办公室或实验室里放个金光闪闪的主机多少有点浮夸。接口都在背面:三个USB-C、一个万兆网口、一个HDMI,还有个特别的NVIDIA ConnectX-7接口,能把两台机器连在一起,算力和显存直接翻倍,跑4000亿参数的大模型。这个设计思路有意思,需要的时候加一台就行,不用一次性买个巨无霸回来。

打开网易新闻 查看精彩图片

真正让我觉得这东西有料的,是它的心脏——它没用常见的酷睿或锐龙,而是一块NVIDIA的GB10 Grace Blackwell芯片。这块芯片把ARM架构的CPU和Blackwell架构的GPU封装在一起,中间用NVLink-C2C互联,带宽是普通PCIe 5.0的五倍。台积电3纳米工艺,功耗控制在140瓦,这就解释了为什么这么小的机身不需要夸张的散热,靠金属外壳和几个栅格出风口就能压住。

打开网易新闻 查看精彩图片

最核心的是128GB统一内存,注意,这不是传统意义上给CPU用的内存或显卡的显存,而是两者共享的一块高速内存池,没有数据来回拷贝的瓶颈。那些动不动几百亿参数的大模型,以前得靠机架式服务器才能塞得下,现在这个小盒子就能装。在NVFP4精度下能跑2000亿参数的模型,算力有1000 AI TOPS。

打开网易新闻 查看精彩图片

开机之后最让我省心的是它预装了趋境的系统。很多AI PC买回来就是个空壳子,要自己装驱动、配环境、拉模型,没点Linux功底根本玩不转。这台机器开机进系统,浏览器里输个IP地址加端口就能用,后台管理界面是图形化的,GPU占用率、显存用了多少、生成了多少Tokens,一目了然。GLM 4.5 Air 106B这种千亿参数的大模型已经给你装好了,直接加载就行。我还试着导了一个Qwen 2.5 7B模型进去,把文件放到指定文件夹,点个导入就完事了。

打开网易新闻 查看精彩图片

性能方面,在GLM 4.5 Air 106B模型下,写300字左右的回答,平均速度能达到20个Tokens每秒以上,体感就是打完问题它几乎没有停顿就开始往外蹦字,就算把提示词加到500字,速度也就降到20.6Tokens每秒左右,很稳定。跑这个千亿大模型的时候,显存占用大约68GB,还不到128GB的一半,也就是说还有余量干点别的。并发测试我也做了,4个线程以内推理速度都能维持在10Tokens每秒以上。

打开网易新闻 查看精彩图片

当然它也不是完美的,完全没接触过Linux的话,刚开始设置网络可能会花点时间。生成的长文确实有点模板化,深度洞察还得自己来。

但瑕不掩瑜,它让私有化AI部署从“折腾”变成了“使用”。你不需要是算法工程师,不需要懂分布式训练,甚至不用敲多少命令行,它把数据中心级别的算力放到了桌面上,并且用一套成熟的软件生态把这套算力真正用了起来。对AI开发者来说是本地测试平台,对科研人员是数据不出门的实验环境,对工作室或小企业是成本可控的私有知识库。它不是魔法,但确实是目前把硬件算力和本地化AI应用结合得最完整、最省心的方案之一。