新智元报道
编辑:艾伦
【新智元导读】摩尔线程 AI 算力本(MTT AIBOOK)是专为 AI 学习与开发者打造的个人智算平台。它搭载自研智能 SoC 芯片「长江」,提供 50TOPS 异构 AI 算力,支持混合精度计算。运行基于 Linux 内核的 MT AIOS 操作系统,具备多系统兼容能力,并预置完整 AI 开发环境与工具链。产品内置智能体「小麦」及丰富 AI 应用,提供开箱即用的一站式 AI 体验。「本地写代码 + 小规模调试」→「云端一键调用大规模算力训练」→「模型回传本地部署」的闭环体验,才是 MTT AIBOOK 真正的杀手锏。
最近电脑圈什么最火?那必须是「AI PC」。
甚至可以说,现在是个笔记本厂商,不在发布会上提两句「AI」,出门都不好意思跟人打招呼。
但是咱们有一说一,市面上绝大多数所谓的「AI PC」,其实还是那个熟悉的配方:装个 Windows,塞个稍微强点的 NPU,然后告诉你「嘿,我们可以离线跑个美颜滤镜哦」。这就很没劲。
对于咱们这种动不动就要跑个模型、调个参,或者想在本地搓个 AI 应用的开发者(或者准开发者)来说,这种「AI PC」就像是给法拉利装了个自行车的辅助轮——看着挺花哨,真跑起来还是得靠那两条用久了发烫的 x86「腿」。
直到前段时间,我们终于拿到了摩尔线程发售的 MTT AIBOOK。
这玩意儿挺奇怪,因为它居然不预装 Windows(但它也能跑),而是预装了一个基于 Linux 的MT AIOS。
官方管它叫「个人智算平台」,说它是专门为 AI 开发者、学生党准备的「第一站」。
起初我们也就是抱着「试试看国产 GPU 到底能不能打」的心态,把它当成备用机扔进了背包。
结果没想到,一周下来,这台本子居然成了我桌面上开机率最高的设备。
甚至有点,回不去的感觉。
今天,咱们就抛开那些花里胡哨的词藻,实打实地聊聊:这台塞进了国产「长江」SoC 芯片的 MTT AIBOOK,到底是噱头,还是真家伙?
「伪装」成笔记本的 Linux 开发站
拿到真机的第一眼,这台 AIBOOK 居然有点「反差萌」。
按照常理,主打「硬核开发」的本子,通常都长得像块砖,恨不得把散热孔开到屏幕上。
但 MTT AIBOOK 拿在手里,居然有点轻薄本的意思。
全金属机身,0.15mm 的 CNC 切割工艺,摸上去那种冷峻的磨砂感,「果味」十足。
A 面没有任何花哨的 RGB 灯带,甚至 Logo 都做得非常克制。
这种「谦逊」的设计语言,我个人是非常吃的。
毕竟对于开发者来说,我们不需要电脑在咖啡馆里像迪厅球一样闪瞎别人的眼,我们需要的是它在跑代码的时候别掉链子。
掀开屏幕,一块14 英寸的 2.8K OLED 屏映入眼帘。
120Hz 高刷,100% DCI-P3 色域。
有一说一,这块屏幕的素质用来跑终端代码属于是「暴殄天物」,但用来回看刚生成的 AI 绘图,那个色彩表现力确实顶。
但真正的「硬菜」,在开机之后。
按下电源键,没有熟悉的「田字格」Logo,而是直接进入了MTAIOS的桌面。
懂行的朋友都知道,Linux 才是 AI 开发的「快乐老家」。
无论是 PyTorch 这些框架,还是各种开源的大模型,在 Linux 下的兼容性和效率永远是第一梯队。
以前我们在 Windows 上做开发,要么得忍受 WSL(Windows Subsystem for Linux)偶尔的各种怪异 Bug,要么就得自己折腾双系统,把引导分区搞炸那是家常便饭。
MTT AIBOOK 的逻辑非常简单粗暴:既然大家都要用 Linux,那我直接给你原生 Linux。
不仅如此,它还解决了开发者最大的噩梦——环境配置。
如果你是计算机专业的学生,或者刚入行的 AI「炼丹师」,你一定经历过这种绝望:
为了跑通一个 GitHub 上的开源项目,你花了两天时间装 CUDA、配 cuDNN、换 Python 版本、解决各种依赖冲突……最后代码还没跑,人已经麻了。这就是传说中的「环境配置火葬场」。
而这台 AIBOOK,出厂就预置了 MUSA(Meta-computing Unified System Architecture) 全套开发环境。
Python、VS Code、Jupyter Notebook、PyTorch……这些吃饭的家伙什儿,开箱即用。
这就好比你去买房,以前是毛坯房,你得自己刷墙铺地砖;
现在摩尔线程直接给了你一套精装房,拎包入住,你只需要关心「我要写什么代码」,而不是「为什么 pip install 又报错了」。
实测一: 在国产 GPU 上
「搓」图(ComfyUI 篇)
光说不练假把式。
既然官方号称这台机器有 50 TOPS 的异构 AI 算力,那我们必须得给它上点强度。
我们选择了目前 AI 绘画圈最硬核、最能体现算力调度的工具——ComfyUI。
熟悉 AI 绘画的朋友都知道,ComfyUI 这玩意儿虽然功能强大(节点式工作流简直是极客浪漫),但它的安装门槛极其劝退。
而且,它默认是深度绑定英伟达显卡和 CUDA 生态的。
在一台国产GPU的笔记本上跑 ComfyUI?这听起来就像是在 PS4 上跑 Xbox 的《光环》一样离谱。
但实测下来的过程,居然顺滑得让我有点怀疑人生。
部署:从「火葬场」到「拖拽式」
按照官方给的【初级】教程,整个部署过程不仅不需要我重新编译 PyTorch,甚至都不需要我对着终端敲那行看着就头疼的:
git clone摩尔线程显然是做了大量的底层适配工作。
他们提供了一个「特制版」的压缩包,里面已经把适配国产架构的 Torch 库和加速接口都打包好了。
操作步骤简单到令人难以置信:
下载 AIBOOK 专版的 ComfyUI 压缩包。
解压。
打开终端,敲一行:
python main.py --gpu-only --force-fp16完了。
真的,就这么简单。当看到终端里跳出 Starting server 的字样,浏览器自动弹出熟悉的节点界面时,我承认我有点感动。
这不仅仅是省事,这代表了摩尔线程的工程师在底层做了大量的「脏活累活」,把异构计算的天然屏障给抹平了。
实战:SDXL Lightning 的「秒出」体验
为了测试性能,我没有用那种几十 MB 的小模型,而是直接上了SDXL Lightning—— 这可是目前文生图领域的高质量代表。
我加载了一个官方提供的 .json 工作流文件。
如果是没接触过 ComfyUI 的小白,可能会被满屏的连线吓到。
但在 AIBOOK 上,这种节点化的操作反而显得非常直观:
左边是Checkpoints 加载器,我选好了下载好的
sdxl_lightning_4step.safetensors。中间是CLIP 文本编码器,这里就是输入提示词的地方。
右边是KSampler(采样器)和VAE 解码。
我试着输入了一段简洁的提示词:
Anime style, 1 girl with long pink hair, cherry blossom background,
studio ghibli aesthetic, soft lighting, intricate details Masterpiece,
best quality, 4k
然后,深吸一口气,点击运行。
此时,我能明显听到机身内部的双涡轮风扇开始介入,声音有点像飞机起飞前的滑行声——这声音对极客来说,就是「算力正在燃烧」的悦耳音符。
屏幕上的绿色进度条在各个节点之间快速跳动。
K采样器上的进度条仅仅走了几秒钟,一张可爱的小女孩图片就出现在了最右侧的预览框里。
在这个过程中,所有的计算都在本地。
这意味着什么?
意味着我不需要把我的提示词(可能包含一些私人的创意)上传到云端;
意味着即使我现在拔掉网线,我依然可以坐在公园的长椅上,利用这颗「长江」SoC,源源不断地生成我的创意。
实测二:云端联动
硬核训练 CIFAR-10(AutoDL 篇)
当然,肯定有硬核老哥会说:「你这也就是跑个推理,只有 50 TOPS 算力,我想训练个大模型岂不是要等到天荒地老?」
这就问到点子上了。
笔记本毕竟是笔记本,受限于功耗和体积,它不可能塞进一张数据中心级别的计算卡。
但 MTT AIBOOK 的聪明之处在于,它从来没想过单打独斗。
它有一个核心理念叫——「端云一体」。
为了体验这个功能,我按照【高级】教程,尝试了一次经典的深度学习实战:CIFAR-10 图像分类训练。
什么是 CIFAR-10?
简单科普下,CIFAR-10 是 CV(计算机视觉)界的「Hello World」级数据集,包含 60000 张 32x32 的彩色图片,分成了飞机、汽车、鸟、猫等 10 个类别。
我们要做的,就是从零开始构建一个卷积神经网络(CNN),教电脑学会认图。
无缝接入 AutoDL
这次,我没有在本地死磕,而是利用 AIBOOK 预置的工具,直接连接到了 AutoDL 算力平台。
这里必须提一句,摩尔线程和 AutoDL 有深度合作,甚至在专区里你可以直接租用到搭载摩尔线程全功能 GPU 的云端实例。
操作体验极其丝滑:
我在 AIBOOK 的本地终端里写好了代码,然后通过 SSH 连接到云端实例。
这时候,神奇的事情发生了。
我在本地 Linux 环境下写的代码,几乎不需要任何修改,就可以直接在云端的摩尔线程 GPU 上运行。
见证「MUSA」的魔力
在终端里,我先输入了一行检查指令:
python check_musa.py屏幕返回:
设备 0:MTT S4000
显存:47.9 GB
这是国产显卡在 PyTorch 框架下发出的「我在」的声音。
接着,开始训练:
python train_cifar10.py --model simple_resnet --epochs 10终端里的进度条开始飞快滚动:
随着训练轮数(Epoch)的增加,准确率肉眼可见地提升。
重点是,整个过程中,我使用的是标准的 PyTorch 语法,没有去写什么晦涩难懂的专有算子。
这就是 MUSA 架构最大的护城河——兼容性。它让开发者可以几乎无痛地从 CUDA 生态迁移过来。
这种「本地写代码 + 小规模调试」→「云端一键调用大规模算力训练」→「模型回传本地部署」的闭环体验,才是 MTT AIBOOK 真正的杀手锏。
它不再是一个孤立的硬件,而是一个通往庞大算力海洋的入口。
谁说 Linux 不能办公?
「双面特工」的自我修养
测到这儿,肯定有朋友要问了:
「这电脑好是好,但我总不能天天写代码吧?我要是用飞书开个会,或者想打把《空洞骑士》放松一下,难道还要再买台电脑?」
这就是 MTT AIBOOK 最机智的地方。
它虽然是 Linux 核心,但它非常清楚现阶段打工人的痛点。
所以,它搞出了一个「一本三用」的方案:
Host OS:原生的 MT AIOS(Linux),用来干正经事,写代码、跑模型。
安卓容器:直接在桌面运行安卓 App。我试了下,不仅能刷小红书,甚至能通过应用汇下载各种手游。摸鱼神器 get ✅。
Windows虚拟机:这才是绝杀。
这台机器利用了 KVM 虚拟化技术,支持运行一个完整的 Windows 11。
注意,这不是像 Parallels Desktop 那种简单的模拟,它是支持 GPU 虚拟化的。
实际场景是这样的:
我在 Linux 下刚刚训练完一个模型,把它封装成了一个 .exe 的应用。
但我不知道这玩意儿在客户的 Windows 电脑上能不能跑。
这时候,我不需要到处借电脑,直接在 Dock 栏进入虚拟机,几秒钟后,一个全屏的 Windows 界面就出来了。
我在里面测试软件、写个 PPT、甚至打开 Steam 玩了一会儿游戏,确认无误后,三指一划,又回到了 Linux 继续改代码。
开发在 Linux,办公/测试/娱乐在 Windows/安卓。
这种「精神分裂」般的使用体验,在习惯之后,竟然觉得意外的合理。
它完美解决了开发者「既要又要」的贪婪需求。
「第一站」的意义
用了这一周,我一直在思考一个问题:
在 2026 年,我们到底需要一台什么样的 AI 电脑?
是算力强到能当暖气片?还是薄到能切菜?
摩尔线程用 MTT AIBOOK 给出的答案是:我们需要一个能让更多人低门槛进入AI世界的工具。
说实话,这台电脑绝非完美。
它的生态相比于沉淀了几十年的 Wintel 联盟还有差距,它的软件库可能还不如 Ubuntu 社区那么浩如烟海。
但它做对了一件至关重要的事情——它把「国产算力」这四个字,从遥远的数据中心机房,搬到了每一个普通学生、普通开发者的书桌上。
对于摩尔线程来说,这不仅仅是在卖硬件,这是在「播种」。
他们希望未来的开发者,人生的第一行 AI 代码,是在 MUSA 架构上敲下的;
他们希望未来的 AI 应用,是原生生长在国产算力平台上的。
这台 MTT AIBOOK,就像是一张通往未来 AI 时代的「入场券」。
它不是目前市面上性能最狂暴的笔记本,但它是目前最懂中国开发者痛点的「个人智算平台」。
如果AI的星星之火需要干柴,那这台笔记本,就是那块最顺手的打火石。
推荐用户 :计算机专业学生、AI 算法工程师、Linux 发烧友等。
参考资料:
让AI开发更简单!摩尔线程发布AI算力本MTT AIBOOK
热门跟贴