人工智能颠覆传统计算方式:让内存更接近计算资源

大数据应用推动了“让内存更接近计算资源”的架构需求,而人工智能和机器学习则进一步证明了硬件和硬件架构在成功部署中发挥的关键作用。不过有一个关键问题——数据处理应该在哪里进行。

在Forrester Research近期的一项调查中,有89%的受访者表示,计算和内存在架构上紧密相连是至关重要的。这项调研由美光(Micron Technology)公司委托,调查结果中还发现,内存和存储是如今限制人工智能和机器学习发展的非常重要的因素。此外,还有超过75%的受访者指出,他们需要升级或重新构建内存和存储架构以打破这种局限性。

因为机器学习能够通过神经网络对庞大的数据矩阵进行多次累积操作,这使得大数据及其分析过程中的很多问题得以解决。同时,随着更多结果的产生,这样的操作还会反复进行,以生成最佳路径和最佳选择的算法,并且这些算法都是通过处理数据进行反复学习的。

美光公司企业战略副总裁Colm Lysaght表示,因为数据量非常大,所以解决内存问题的常见方案就是增加更多的DRAM(Dynamic Random Access Memory),即动态随机存取存储器。这是最为常见的系统内存,能够将性能瓶颈从原始计算转移到数据所在的位置。“内存和存储就是数据所在的地方。我们必须把数据带入CPU,然后再返回,如此反复。因为这些庞大的数据集都需要被处理。”

推荐阅读