旷视首席科学家孙剑:深度学习变革视觉计算丨CCF-GAIR 2019(18)

深度学习走到今天经历了很多的坎坷 , 直到2010年才重新占据了统治性地位 , 发展过程中主要遇到了两个障碍:

第一 , 深度神经网络能否很好地被训练 。 在今天深度学习成功之前很多人是不相信的 。 按照传统的机器学习理论 , 深度学习神经网络的参数比训练数据要大10倍甚至上百倍 , 如何很好地学习出来 , 很多人不相信 。

第二 , 当时的训练过程非常不稳定 , 论文报了深度学习或者神经网络训练的方法 , 别人很难把结果复现出来 。 作为一名导师 , 很难鼓励他的学生从事这方面研究 。

这两个障碍直到2012年开始慢慢地被解除 。

从2012年AlexNet , 一个8 Layers的神经网络 , 后来有VGG 一个19 Layers的神经网络 , 到了2015年 , 我们提出了152 Layers的神经网络 。 随着网络层数的增加与数据的增多 , 我们第一次在ImageNet数据集上让机器超越了人类 。

推荐阅读