说到顶配的MacBook Pro,我第一反应就是专业的“影视工作”,大内存、大硬盘、顶级屏幕和外放都是影视工作者的最爱。

除了“影视工作”之外,MacBook其实还有一个“绝活”:得益于统一内存架构,它可以本地运行70B甚至更大参数量的AI模型。

现在本地运行 大语言模型变得非常简单,普通用户也可以轻松体验了。

那这是否意味着AIPC时代终于要到来了呢?

今天我们就来简单分析一下:

苹果 MacBook Pro 16

左滑看接口

机身左侧

机身右侧

它的配置如下:

Apple M4 Max 处理器 (16核CPU+40核GPU)

128GB 统一内存

8TB 固态硬盘

16.2英寸 3456×2234分辨率 100%DisplayP3色域 120Hz刷新率 miniLED纳米纹理显示屏

厚度 16.8mm

重量 2.13kg

适配器重量 331g

参考售价57099元

它的优缺点如下:

优点!

1,屏幕素质极佳,色彩管理完善

2,搭载自研M4 Max处理器,性能和能效表现极佳

3,扬声器外放效果一流

缺点!

1,风扇较为敏感,且噪音偏大

2,刘海屏幕影响观感

3,高负载下,键盘面温度较高

【升级建议】

这台笔记本电脑拆机比较困难,卸下底面所有螺丝,用撬片划开前部及两边的卡扣,略微抬起后盖用力向前拉,即可取下后盖。

虽然描述比较简单,但转抽处的金属卡扣比较牢固,想要拉出后盖其实很费劲,由于内存和固态都是板载,我们也不建议用户自己拆机。

128GB统一内存能满足99.9999%的需求,SoC与内存一同封装在基板上,无法加装或更换。 (128GB内存为可选的最大容量)

固态硬盘同样为板载,容量8TB,已经配满无法升级。

【购买建议】

1,对屏幕规格和素质表现要求极高

2,对内存和存储的需求极高

3,拥有富堪敌国的家庭条件

顶配MacBook Pro 16搭载了128GB的统一内存,“显存”容量非常大,Windows阵营方面,后续即将上市的AMD Ryzen AI MAX系列处理器新品也将拥有类似的能力 。

屏幕方面, 这台电脑选配了纳米纹理技术 (选配+1100元) ,表面为磨砂质感,能够有效减少眩光、 反光,但是观感不如标准版「通透」。

并且清理维护起来比较麻烦,必须用专门的清洁布,否则可能会损伤纳米纹理层。

实测色域容积104.6%DisplayP3,色域覆盖99.6%DisplayP3,屏幕支持色域切换:

以DisplayP3为参考,平均ΔE 0.53,最大ΔE 1.43;

在sRGB模式下,平均ΔE 0.25,最大ΔE 1.1。

实测最大亮度631nits,HDR激发亮度高达1693nits。

接口方面,机身左侧有两个雷雳5接口 (支持最高140W PD充电和DP视频输出) 、一个3.5mm音频接口和MagSafe磁吸电源接口;

机身右侧有一个雷雳5接口 (支持最高140W PD充电和DP视频输出) 、SD卡槽和HDMI2.1接口。

噪音方面,它的满载人位分贝值为55.3dB。 (环境噪音为32.1dB)

续航方面,中高负载仿真续航测试成绩为13小时11分钟。

苹果 MacBook Pro 16 顶配版售价31999元起,默认标配48GB内存、1TB固态硬盘,而今天这款将屏幕、内存、硬盘通通拉满,选配完的价格达到了 57099 元,堪比一辆家用小轿车。

所以如果你预算极其充裕,且想要一台能本地运行超大AI模型的笔记本,那这台笔记本值得考虑一下。

但如果你没那么多钱,那看评测是免费的。

【散热分析】

上图是苹果 MacBook Pro 16 (M4 Max) 的拆机实拍图,单热管双风扇的组合。

室温25℃

反射率1.0

macOS版本:Sequoia 15.2

使用R23循环和Steel Nomad Light压力测试进行烤机。

在满载状态下,CPU温度最高103℃,大部分P核都在90℃左右、E核都在80℃左右,核心功耗约31W,P核频率约3.1GHz,E核2.6GHz;

GPU功耗约29W,温度在85℃上下,频率 1528MHz。

单烤CPU, 大部分P核都在100℃左右、E核都在70℃以上,核心功耗约60W,P核频率约3.8GHz,E核约2.6GHz。

单烤GPU, 温度在90℃左右,功耗约59W,频率1502MHz。

左滑看烤机背面温度

机身背面温度

表面温度如上图所示,键盘键帽最高温46.7℃出现在“Y”键上,WASD键附近约为38.3℃,方向键33.8℃。左腕托温度为32.6℃。背面中心温度为40.1℃。

总的来说,顶配版MacBook Pro 16散热表现中规中矩,核心温度控制的尚可,但是噪音和表面温度的表现比较一般,达到了同尺寸游戏本的水平。

【猪王的良心结语】

许多观众应该已经在春节假期体验过了网页版/app版的DeepSeek R1了,截至目前,DeepSeek的服务器仍然不是很稳定,不仅响应速度慢,而且还经常直接回复“服务器繁忙,请稍后再试”,体验不算很好。

使用本地运行的模型就可以规避这个问题。

其实本地运行DeepSeek R1的配置要求也不高,4060/70笔记本就可以运行7B规模,4080/90笔记本可以运行14B规模,而今天这台顶配MacBook Pro甚至可以运行70B规模。

普通小白想要体验也不用担心,因为相关软件已经十分完善了,不再需要敲代码了。

最重要的是,DeepSeek R1的小模型虽然参数量不大,但是在基准测试中的表现可一点也不差。

下图是DeepSeek R1小模型的基准测试成绩。

在我看来,无论软件还是硬件,本地运行大语言模型的门槛都已经大幅降低,初步具备了普及的条件。

我们还制作了一期本地运行DeepSeek R1的视频教程,感兴趣的观众可以移步观看。