Ice Lake架构深度解析Intel的雅典娜女神( 五 )

内核互联方面 , 桌面级Ice Lake仍将采用Ringbus也就是环形总线的设计 , 而服务器端将延续Skylake-Server的Mesh总线设计 。

指令集与AI加速

指令集随着新单元的加入也同时进行了扩充 , 在加密解密、AI加速、通用计算、特定计算等方面都新加入了不少指令 , 尤其是AVX-512指令集 。

对于近几年大热门的人工智能 , Intel一方面在Uncore部分加入了自家的“高斯网络加速器(Gaussian Network Accelerator)”这样类似于手机SoC上面常见的AI硬件加速电路 , 还通过引入AVX512VNNI指令集 , 使用AVX-512单元来进行AI相关的加速计算 , Intel将这种加速称为"DL(Deep Learning) Boost" 。 这是一种很聪明的取巧办法 , 专用计算单元的引入可以保证一定的加速性能 , 而新指令集的加入同时也可以更加充分地利用上新的CPU特性 。

加密解密指令集上面的改动诸如AES的吞吐量加大、加入新的针对SHA算法的一系列指令等 , 总之在编译器进行适当优化的前提下 , Ice Lake的加密解密性能是比Skylake强不少的 。

推荐阅读