说到顶配的MacBook Pro,我第一反应就是专业的“影视工作”,大内存、大硬盘、顶级屏幕和外放都是影视工作者的最爱。
除了“影视工作”之外,MacBook其实还有一个“绝活”:得益于统一内存架构,它可以本地运行70B甚至更大参数量的AI模型。
现在本地运行 大语言模型变得非常简单,普通用户也可以轻松体验了。
那这是否意味着AIPC时代终于要到来了呢?
今天我们就来简单分析一下:
苹果 MacBook Pro 16
左滑看接口
机身左侧
机身右侧
它的配置如下:
Apple M4 Max 处理器 (16核CPU+40核GPU)
128GB 统一内存
8TB 固态硬盘
16.2英寸 3456×2234分辨率 100%DisplayP3色域 120Hz刷新率 miniLED纳米纹理显示屏
厚度 16.8mm
重量 2.13kg
适配器重量 331g
参考售价57099元
它的优缺点如下:
优点!
1,屏幕素质极佳,色彩管理完善
2,搭载自研M4 Max处理器,性能和能效表现极佳
3,扬声器外放效果一流
缺点!
1,风扇较为敏感,且噪音偏大
2,刘海屏幕影响观感
3,高负载下,键盘面温度较高
【升级建议】
这台笔记本电脑拆机比较困难,卸下底面所有螺丝,用撬片划开前部及两边的卡扣,略微抬起后盖用力向前拉,即可取下后盖。
虽然描述比较简单,但转抽处的金属卡扣比较牢固,想要拉出后盖其实很费劲,由于内存和固态都是板载,我们也不建议用户自己拆机。
128GB统一内存能满足99.9999%的需求,SoC与内存一同封装在基板上,无法加装或更换。 (128GB内存为可选的最大容量)
固态硬盘同样为板载,容量8TB,已经配满无法升级。
【购买建议】
1,对屏幕规格和素质表现要求极高
2,对内存和存储的需求极高
3,拥有富堪敌国的家庭条件
顶配MacBook Pro 16搭载了128GB的统一内存,“显存”容量非常大,Windows阵营方面,后续即将上市的AMD Ryzen AI MAX系列处理器新品也将拥有类似的能力 。
屏幕方面, 这台电脑选配了纳米纹理技术 (选配+1100元) ,表面为磨砂质感,能够有效减少眩光、 反光,但是观感不如标准版「通透」。
并且清理维护起来比较麻烦,必须用专门的清洁布,否则可能会损伤纳米纹理层。
实测色域容积104.6%DisplayP3,色域覆盖99.6%DisplayP3,屏幕支持色域切换:
以DisplayP3为参考,平均ΔE 0.53,最大ΔE 1.43;
在sRGB模式下,平均ΔE 0.25,最大ΔE 1.1。
实测最大亮度631nits,HDR激发亮度高达1693nits。
接口方面,机身左侧有两个雷雳5接口 (支持最高140W PD充电和DP视频输出) 、一个3.5mm音频接口和MagSafe磁吸电源接口;
机身右侧有一个雷雳5接口 (支持最高140W PD充电和DP视频输出) 、SD卡槽和HDMI2.1接口。
噪音方面,它的满载人位分贝值为55.3dB。 (环境噪音为32.1dB)
续航方面,中高负载仿真续航测试成绩为13小时11分钟。
苹果 MacBook Pro 16 顶配版售价31999元起,默认标配48GB内存、1TB固态硬盘,而今天这款将屏幕、内存、硬盘通通拉满,选配完的价格达到了 57099 元,堪比一辆家用小轿车。
所以如果你预算极其充裕,且想要一台能本地运行超大AI模型的笔记本,那这台笔记本值得考虑一下。
但如果你没那么多钱,那看评测是免费的。
【散热分析】
上图是苹果 MacBook Pro 16 (M4 Max) 的拆机实拍图,单热管双风扇的组合。
室温25℃
反射率1.0
macOS版本:Sequoia 15.2
使用R23循环和Steel Nomad Light压力测试进行烤机。
在满载状态下,CPU温度最高103℃,大部分P核都在90℃左右、E核都在80℃左右,核心功耗约31W,P核频率约3.1GHz,E核2.6GHz;
GPU功耗约29W,温度在85℃上下,频率 1528MHz。
单烤CPU, 大部分P核都在100℃左右、E核都在70℃以上,核心功耗约60W,P核频率约3.8GHz,E核约2.6GHz。
单烤GPU, 温度在90℃左右,功耗约59W,频率1502MHz。
左滑看烤机背面温度
机身背面温度
表面温度如上图所示,键盘键帽最高温46.7℃出现在“Y”键上,WASD键附近约为38.3℃,方向键33.8℃。左腕托温度为32.6℃。背面中心温度为40.1℃。
总的来说,顶配版MacBook Pro 16散热表现中规中矩,核心温度控制的尚可,但是噪音和表面温度的表现比较一般,达到了同尺寸游戏本的水平。
【猪王的良心结语】
许多观众应该已经在春节假期体验过了网页版/app版的DeepSeek R1了,截至目前,DeepSeek的服务器仍然不是很稳定,不仅响应速度慢,而且还经常直接回复“服务器繁忙,请稍后再试”,体验不算很好。
使用本地运行的模型就可以规避这个问题。
其实本地运行DeepSeek R1的配置要求也不高,4060/70笔记本就可以运行7B规模,4080/90笔记本可以运行14B规模,而今天这台顶配MacBook Pro甚至可以运行70B规模。
普通小白想要体验也不用担心,因为相关软件已经十分完善了,不再需要敲代码了。
最重要的是,DeepSeek R1的小模型虽然参数量不大,但是在基准测试中的表现可一点也不差。
下图是DeepSeek R1小模型的基准测试成绩。
在我看来,无论软件还是硬件,本地运行大语言模型的门槛都已经大幅降低,初步具备了普及的条件。
我们还制作了一期本地运行DeepSeek R1的视频教程,感兴趣的观众可以移步观看。
热门跟贴