半导体行业将再火十年!两大趋势成发展新动能(11)

解决并行计算问题主要有两种方法:第一 , 在现有的计算架构上添加专用加速器;第二 , 完全重新开发 , 创造模拟人脑神经网络的全新架构 。 第二种方法仍处于初期开发阶段 , 不适合商业应用 。 因此 , 目前主要采用的方法是添加人工智能加速器 。 多种类型的人工智能芯片均可以实现加速 , 主流加速器包括图形处理器、现场可编程门阵列 , 以及专用集成电路 , 这包括张量处理器、神经网络处理器、神经网络处理器、矢量处理器和大脑处理器等变体 。 每种人工智能芯片都有其自身的优势和劣势 。

深度学习有两种完全不同的人工智能部署方式:训练和推理 。 人工智能基于大数据“训练”神经网络模型 , 利用训练数据集获取新训练好的模型 。 这些新训练好的模型随后便被赋予新的能力 , 根据新的数据集进行“推理”得出结论 。

因为需要将庞大的数据集应用到神经网络模型中 , 因此训练阶段需要大量的计算能力 。 这就要求具有先进并行计算能力的高端服务器能够处理大量高度并行的各类数据集 。 因此 , 这一阶段的工作通常利用云端硬件设备完成 。 而推理阶段既可以在云端完成也可以借助边缘设备(产品)进行 。 与训练芯片相比 , 推理芯片需要更全面地考虑功耗、延时和成本等因素 。

推荐阅读