7 大类卷积神经网络(CNN)创新综述( 六 )

基于深度的 CNN

深度 CNN 架构基于这样一种假设:随着深度的增加 , 网络可以通过大量非线性映射和改进的特征表示更好地逼近目标函数 。 网络深度在监督学习的成功中起了重要作用 。 理论研究已表明 , 深度网络能够以指数方式比浅层网络更有效地表示特定的 20 个函数类型 。 2001 年 , Csáji 表示了通用近似定理 , 指出单个隐藏层足够逼近任何函数 , 但这需要指数级的神经元 , 因而通常导致计算上行不通 。 在这方面 , Bengio 和 elalleau 认为更深的网络有潜力在更少的成本下保持网络的表现能力 。 2013 年 , Bengio 等人通过 实证表明 , 对于复杂的任务 , 深度网络在计算和统计上都更有效 。 在 2014-ILSVR 竞赛中表现最佳的 Inception 和 VGG 则进一步说明 , 深度是调节网络学习能力的重要维度 。

一旦特征被提取 , 只要其相对于其他位置的近似位置被保留 , 其提取位置就变得没那么重要了 。 池化或下采样(如卷积)是一种有趣的局部操作 。 它总结了感受野附近的类似信息 , 并输出了该局部区域内的主要反应 。 作为卷积运算的输出结果 , 特征图案可能会出现在图像中的不同位置 。

推荐阅读