先说性能吧。

m1的性能并没有达到题主所说的变态的程度。

甚至极端一点说,m1是靠着堆着zen3两倍到四倍的料,达到更高功耗比的产品。极客湾也说过m1多核心也就是4.5GHz的4核心8线程的zen3的水平。所谓性能吊打,也就是打打英特尔这种牙膏挤光了企业。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

可以看到苹果架构堆料之足

从性能上来说,如果AMD愿意堆料,单核心达到M1根本不是问题。如果AMD也有和苹果一样的生态控制,直接放弃兼容,超越M1也不难。

打开网易新闻 查看精彩图片

如果按照上图,直接放弃x86-64的众多兼容模式,那么性能提升会进一步有不小的。

另外m1的缓存调用其实非常神奇,这个我因为利益相关不好说,但是我看知乎上有人提过。你们可以去找一下。

再说功耗,M1真正厉害的是这一点。确实很变态。

苹果的低功耗上这么牛并不是仅仅只是Arm架构的天生优势。苹果有一项非常牛的技术,就是动态电压控制。这是一项在A13上引入的技术。

打开网易新闻 查看精彩图片

这项技术只开启处理器真正所需的部分和所需要的时钟。

这项技术在19年发布以后,已经有不少公司在研究了。所以其实你们可以期待一下zen3上笔记本电脑,这个功耗会下降不少。虽然达不到m1的水平,但是相对会有很大进步。至于英特尔,用极客湾的一句话:英特尔,你长点心吧!现在英特尔光靠大小核心是无法达到怕接近m1的水平的。如果这项技术x86阵营不投入使用,那么将永远达不到0.02瓦的待机功耗。

成就超低功耗的另一个就是UMA储存。这是很厉害的一个东西,而且不仅仅是厉害在高速低延时这样的物理特性上。而且还包括共用地址,也就是说CPU, GPU, ML模块可以共用寻址。在以前,那怕你是用的核心显卡,也不能这样。相当于ML模块既可以作为CPU的向量计算单元,又可以作为GPU的tenser core,还不需要把专门的数据放到显存。

更新:

有一些人说x86前端做不宽,不可能达到m1的ipc。这句话也不全错。X86前端解码器到现在为止做不宽的一个很重要原因是为了兼容各种模式和CISC天生指令集的问题。如果做宽了,要解决的最大问题是分支预测重新写的难度很大。我知道不少人看到这里会说:你不学无术,CISC在执行方式上已经改用了Micro-Op(AMD不同)的类似于RISC的执行了。这句话当然是对的,但是改变执行方式的不同并不能解决CISC指令集天生指令长短,和执行时间不同的缺点。在纷繁的指令集下,分支预测相比RISC,CISC的宽解码带来的分支预测复杂程度非常高。

到2020年zen3发布为止,AMD并没有精力去搞这个东西,相比更多的是在想办法在向量计算上跟上英特尔的脚步。而英特尔整个企业在垄断以后,比较拉胯。在2015年在对未来的预判上,也不是堆规模,因为他们认为现在的性能是够用的。而是希望整合AVX512这样的指令集来满足向量计算的需求。所以与其将精力放在更大规模的核心上,我们看到了英特尔更多的是在服务器市场发力,做适配。毕竟服务器市场利润率高太多。

另外一个堆料的困难是AMD和英特尔都在用一种高频架构来同时满足移动端和桌面端的需求。而有一些半导体基础的人都知道,性能确实是随着频率线性增加的,但是功耗可是随着频率指数增长的。我们可以看到M1是跑到3.2GHz的。这样相对低一点的频率在移动端是非常合适的,有点类似于英伟达的Max Q设计。这样的频率设计更是带来了更好的功耗比。

然后就是AVX2这个指令集本身是256位的。所以zen3还有到copper lake的架构上,SIMD单元都是两个256位的。所以浮点执行单元如果像m1一样堆到4个 (m1是128位),那就和之前说过的分支预测一样,难度非常高。

苹果另外一个堆料就是解码器。AMD和intel现在都没有像苹果一样有专门的硬件解码器,所以在看视频这种应用上是非常厉害的。

总的来说windows笔记本的多核性能已经达到。单核心性能需要到AMD的zen4才能达到。但是这么强的功耗比,x86-64阵营抄也要抄三年。(不过AMD zen4上5纳米会好很多)如果不愿意堆料,那么三年也抄不出。

当然,写这些不是说M1不强,只是想说M1并没有像题主所说的”变态“。

最后,我不知道为什么我都说了友善评论的情况下。好几个人在评论区跟吃了火药桶一样。你要是反对就正常说,说出你反对我回答的理由。而不是用嘲讽来显示自己的优越感。真的,都不期待一些人当一个友善友好的人。就希望某些人评论的时候当一个正常人,也把我当一个正常的人来交流。某些东西自己评论之前也可以去查,比如Ryzen 7 4800U/4800H也是用在移动端的,不是放在桌面上的。

我不喜欢的评论都折叠了,没办法我就是这么玻璃心。你不喜欢又不想说理由,点反对就可以。

资料来自极客湾,维基百科,和苹果官方PPT。极客湾的m1视频非常推荐一看。