在 2026 年的今天,如果你还在对着 ChatGPT 或者 Claude 的聊天框发呆,那你可能错过了一个新的交互形式。

不管是GPT-4o还是最新的 Gemini,无论它们在服务器端被调教得多么聪明,终究只是被困在浏览器里的“缸中之脑”。它们可以为你写出一段完美的代码,但却无法帮你把这段代码保存到桌面,无法帮你点击运行,更无法帮你整理硬盘里乱七八糟的文件。

打开网易新闻 查看精彩图片

这就是为什么OpenClaw在GitHub上会如此火爆的原因。它不是一个单纯的聊天机器人,而是一个Agent(行动智能体)。简单来说,OpenClaw就是给大模型装上了“手”和“脚”,让 AI 第一次拥有了直接操作操作系统的权限。

打开网易新闻 查看精彩图片

前段时间,社交媒体上关于本地部署OpenClaw的教程纷纷刷屏。在本地运行一个足够聪明、能写代码的大模型需要巨大的显存,而在传统PC阵营,即便是台式机中的RTX 5090用户,也常常被32GB的“显存墙”卡得死死的。难道Windows用户就不能拥有自己的本地 Jarvis 吗?带着这个“不信邪”的疑问,我把目光投向了 AMD。

打开网易新闻 查看精彩图片

可能有人对 AMD 的印象还停留在“玩游戏选 AMD”这种纯性能维度上,但其实AMD在移动端还有一个大招,就是锐龙AI Max系列处理器。这一代处理器最革命性的革新,就是要把苹果引以为傲的“统一内存架构”带入 x86 世界。

打开网易新闻 查看精彩图片

为了验证这块CPU的本地部署能力,我搞到了这台搭载AMD 锐龙 AI Max+ 395的abee AI Station 395 Max。今天,我就要用这台机器,从零开始,给大家分享如何在地表最强的移动端SoC上,暴力驯服OpenClaw。

打开网易新闻 查看精彩图片

在上手折腾软件之前,咱们得先聊聊这台机器的底气。这颗AMD锐龙AI Max+ 395采用chiplet小芯片设计,在塞进16个全血Zen 5 CPU 核心的同时,还集成了规模接近中高端独显级别的GPU单元。对喜欢玩AI的用户来说,最让人兴奋的不仅是核心数,而是128GB LPDDR5x-8000 的统一内存

打开网易新闻 查看精彩图片

与PC阵营相比,以前统一内存是苹果Mac独有的优势,在本地AI部署上相应的占优。

打开网易新闻 查看精彩图片

而AMD这次也在X86阵营带来了统一内存架构技术,CPU、GPU和NPU共享同一个巨大的内存池,还可以在系统中通过使用VGM可变显存技术,灵活调整内存与显存的分配比例,最高可以预留高达96GB的内存空间供GPU专属使用。现在市面上有些锐龙AI Max系列工作站甚至还支持2U+甚至更多台的并联跳线设计,内存空间更是能直接翻倍增长至192GB乃至更高。这种架构上的质变,让 Windows 阵营也能真正跑起超大参数模型,相比于Mac机型而言,用锐龙AI Max系列机型进行本地部署,AI性能更加强大,同时单体购置成本也更低。就拿最近大火的Claudecode来说,输入百万token需要5美元,输出百万token又得25美元。长期使用本地部署显得势在必行,长期使用总成本更经济。

打开网易新闻 查看精彩图片

顶级芯片得配个好机身,今天介绍的就是这台abee AI Station 395 Max

打开网易新闻 查看精彩图片

abee这个牌子DIY的用户是非常熟悉的,铝材工艺可以说是天花板级别了,所以在机身上,我们依旧能感受到abee独有的工业设计风格。

打开网易新闻 查看精彩图片

这台机器他们没定位成普通的Mini PC,而是桌面级Mini AI工作站它的个头比Mac Studio稍微大一圈,但这多出来的体积换来的是实打实的散热效率。

打开网易新闻 查看精彩图片

它内部这套多岛式全覆盖液冷散热系统,能保证在AI这种高强度的满载推理下,机器不因为过热而掉速,它本身也是一个巨大的散热片,全铝机身不仅是好看,对可靠性、防护性和耐用性都有所增强。对于既看重性能稳定性,又对桌面审美有要求的极客来说,这台机器算是把硬件性能给封装得恰到好处。

打开网易新闻 查看精彩图片

硬件到位了,接下来就是软件实战。直接打开OpenClaw官网,点击Quick Start,复制那行PowerShell命令到终端。

打开网易新闻 查看精彩图片

在PowerShell中输入:curl -fsSL https://openclaw.ai/install.sh | bash(需在WSL或Git Bash环境下执行)

打开网易新闻 查看精彩图片

一切都很顺利,脚本可以拉取环境、配置依赖。

打开网易新闻 查看精彩图片

模型选择上,我测试的是Qwen3-Coder,在96GB统一内存预留空间下可以完整加载并保持流畅推理。通过Verbose指令我们能看到实际推理速度还是非常快的,在本地环境下已经进入流畅使用的区间,统一内存架构的优势就直接体现出来了,充足的显存空间允许上下文完整驻留,减少频繁换入换出。

打开网易新闻 查看精彩图片

在部署完成后,我们可以直接在PowerShell中输入:OpenClaw Dash进入它的网页端界面。

打开网易新闻 查看精彩图片

部署成功只是第一步,它到底能不能干活才是关键。为了测试这台机器的极限,我直接给它下达了一个复杂的编程指令:“使用Python的Pygame 库,帮我写一个赛博朋克风格的贪吃蛇游戏,写完后直接在桌面上运行它。”此时观察性能,GPU占用率会直接飙升,本地的Qwen3-Coder迅速给出了响应。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

由于省去了云端传输的环节,代码的生成过程非常利落,没有那种断断续续的迟滞感,而且无需任何Tokens费用成本。不到一分钟,程序生成完毕,终端自动调用Python,游戏窗口弹出并稳定运行。

当然,Agent的能力远不止于此,它还可以用来做很多工作,变成你的个人员工。我让OpenClaw帮我生成一个每日自动执行的计划任务:读取桌面文件夹中的任务文本,筛选带有“#紧急”标签的事项;并读取支出的账单,计算总金额并找出最大开销;最后生成一份日报文件。

打开网易新闻 查看精彩图片

OpenClaw生成了脚本,写入本地目录,并协助配置计划任务。任务被成功写入调度系统,能够在指定时间自动执行。在这个过程中,模型不再只是工具,而更像一个自动化协作者。它理解任务目标,生成执行逻辑,并参与系统层面的配置。

打开网易新闻 查看精彩图片

围绕这种能力,应用场景自然展开。有人用它定期抓取日志并生成分析报告,有人让它整理下载目录,有人将其接入本地开发环境,自动构建项目并运行测试流程。它的价值并不在于“多聪明”,而在于“能否稳定执行”。

这种稳定性,与统一内存架构之间有直接关系。当模型完整驻留在充足的显存空间中,长时间运行不会因为内存不足而频繁抖动,上下文也不容易丢失。对于 Agent 这种需要持续执行多步骤任务的系统来说,这种结构层面的优势尤为重要。

经过这一番折腾,我们终于可以回答文章开头的问题了:如果不用Mac Studio,我们能拥有完美的本地 AI 体验吗?答案是肯定的,而且购置成本更具优势,这就是AMD给出的这个答案,甚至比苹果更加“极客”。

打开网易新闻 查看精彩图片

OpenClaw只是无数AI应用中的一个缩影,它代表了未来人机交互的方向,AI将深度介入我们的系统底层。在超大模型场景下,传统CPU+独显架构的显存瓶颈愈发明显。

打开网易新闻 查看精彩图片

AMD 锐龙 AI Max+ 395的出现,实际上是开辟了一条新赛道。它用128GB统一内存简单粗暴地解决了本地大模型最大的痛点,同时用创新的Zen 5架构保证了通用计算的性能,再辅以XDNA 2 NPU为未来的低功耗场景兜底。

打开网易新闻 查看精彩图片

对于程序员与创作者来说,本地AI的意义不仅在性能,更在于可控性与数据主权。当模型运行在自己的机器上,隐私、响应延迟、调用权限都掌握在自己手中。在当前 Windows 阵营中,拥有128GB统一内存架构的锐龙 AI Max+ 平台,提供了一种不同于传统独显路线的解法。它证明了一件事:在大模型时代,内存规模开始成为新的核心竞争力。