Tesla|特斯拉D1 AI芯片细节盘点:500亿晶体管、400W热设计功耗
近日的特斯拉AI日活动上,特斯拉公布了最新的AI训练芯片“D1”,规模庞大,令人称奇 。该芯片采用台积电7nm工艺制造,核心面积达645平方毫米,仅次于NVIDIA Ampere架构的超级计算核心A100(826平方毫米)、AMD CDNA2架构的下代计算核心Arcturus(750平方毫米左右),集成了多达500亿个晶体管,相当于Intel Ponte Vecchio计算芯片的一半 。
其内部走线,长度超过11英里,也就是大约18公里 。
文章图片
它集成了四个64位超标量CPU核心,拥有多达354个训练节点,特别用于8×8乘法,支持FP32、BFP64、CFP8、INT16、INT8等各种数据指令格式,都是AI训练相关的 。
特斯拉称,D1芯片的FP32单精度浮点计算性能达22.6TFlops(每秒22.6万亿次),BF16/CFP8计算性能则可达362TFlops(每秒362万亿次) 。
为了支撑AI训练的扩展性,它的互连带宽非常惊人,最高可达10TB/s,由多达576个通道组成,每个通道的带宽都有112Gbps 。
而实现这一切,热设计功耗仅为400W 。
文章图片
特斯拉D1芯片可通过DIP(Dojo接口处理器)进行互连,25颗组成一个训练单元(Training Tile),而且多个训练单元可以继续互连,单个对外带宽高达36TB/s,每个方向都是9TB/s 。
如此庞然大物,耗电量和发热都是相当可怕的,电流达18000A,覆盖一个长方体散热方案,散热能力高达15kW 。
文章图片
文章图片
文章图片
特斯拉展示了实验室内部的一个训练单元,运行频率2GHz,计算性能最高9PFlops(每秒9千万亿次) 。
文章图片
特斯拉还用D1芯片,打造了一台AI超级计算机“ExaPOD”,配备120个训练单元、3000颗D1芯片、1062000个训练节点,FP16/CFP8训练性能峰值1.1EFlops(每秒110亿亿次计算) 。
建成后,它将是世界上最快的AI超算,对比特斯拉现在基于NVIDIA方案的超算,成本差不多,但拥有4倍的性能、1.3倍的能效比、1/5的体积 。
文章图片
【Tesla|特斯拉D1 AI芯片细节盘点:500亿晶体管、400W热设计功耗】
文章图片
推荐阅读
- Tesla|最高涨幅21088元:特斯拉Model 3/Y入门车型价格调整
- 人物|马斯克谈特斯拉人形机器人:有性格 明年底或完成原型
- 方面|摩托罗拉 moto X30 推送 mr1 版更新:优化性能,新增大量功能
- Tesla|特斯拉新款Model S电池体积小能量密度高 外媒揭秘三大关键技术
- Tesla|特斯拉因两处安全缺陷召回近50万辆电动汽车 承诺免费修复
- IT|美律所对法拉第未来提起集体诉讼 涉嫌触犯证券法
- Tesla|特斯拉在美国召回约47.5万辆汽车 接近其去年全球交付总量
- Tesla|特斯拉回应“保费暴涨”:平均涨幅约10% 高性能车型不超20%
- Tesla|特斯拉Model Y保费何以一夜暴增80%?
- Tesla|网传特斯拉等新能源汽车保费上涨超50% 多家车险公司回应不实