反转|一文读懂深度学习中的各种卷积

我们都知道卷积的重要性 , 但你知道深度学习领域的卷积究竟是什么 , 又有多少种类吗?研究学者 Kunlun Bai 发布了一篇介绍深度学习的卷积文章 , 用浅显易懂的方式介绍了深度学习领域的各种卷积及其优势 。
>>>>
如果你听说过深度学习中不同种类的卷积(比如 2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混洗分组卷积) , 并且搞不清楚它们究竟是什么意思 , 那么这篇文章就是为你写的 , 能帮你理解它们实际的工作方式 。
在这篇文章中 , 我会归纳总结深度学习中常用的几种卷积 , 并会试图用一种每个人都能理解的方式解释它们 。 除了本文之外 , 还有一些关于这一主题的好文章 , 请参看原文 。
希望本文能帮助你构建起对卷积的直观认知 , 并成为你研究或学习的有用参考 。
本文目录
1.卷积与互相关
2.深度学习中的卷积(单通道版本 , 多通道版本)
3.3D 卷积
4.1×1 卷积
5.卷积算术
6.转置卷积(去卷积、棋盘效应)
7.扩张卷积
8.可分卷积(空间可分卷积 , 深度可分卷积)
9.平展卷积
10.分组卷积
11.混洗分组卷积
12.逐点分组卷积
卷积与互相关
在信号处理、图像处理和其它工程/科学领域 , 卷积都是一种使用广泛的技术 。 在深度学习领域 , 卷积神经网络(CNN)这种模型架构就得名于这种技术 。 但是 , 深度学习领域的卷积本质上是信号/图像处理领域内的互相关(cross-correlation) 。 这两种操作之间存在细微的差别 。
无需太过深入细节 , 我们就能看到这个差别 。 在信号/图像处理领域 , 卷积的定义是:
其定义是两个函数中一个函数经过反转和位移后再相乘得到的积的积分 。 下面的可视化展示了这一思想:
反转|一文读懂深度学习中的各种卷积
文章图片

信号处理中的卷积 。 过滤器 g 经过反转 , 然后再沿水平轴滑动 。 在每一个位置 , 我们都计算 f 和反转后的 g 之间相交区域的面积 。 这个相交区域的面积就是特定位置出的卷积值 。
这里 , 函数 g 是过滤器 。 它被反转后再沿水平轴滑动 。 在每一个位置 , 我们都计算 f 和反转后的 g 之间相交区域的面积 。 这个相交区域的面积就是特定位置出的卷积值 。
另一方面 , 互相关是两个函数之间的滑动点积或滑动内积 。 互相关中的过滤器不经过反转 , 而是直接滑过函数 f 。 f 与 g 之间的交叉区域即是互相关 。 下图展示了卷积与互相关之间的差异 。
反转|一文读懂深度学习中的各种卷积
文章图片

信号处理中卷积与互相关之间的差异
在深度学习中 , 卷积中的过滤器不经过反转 。 严格来说 , 这是互相关 。 我们本质上是执行逐元素乘法和加法 。 但在深度学习中 , 直接将其称之为卷积更加方便 。 这没什么问题 , 因为过滤器的权重是在训练阶段学习到的 。 如果上面例子中的反转函数 g 是正确的函数 , 那么经过训练后 , 学习得到的过滤器看起来就会像是反转后的函数 g 。 因此 , 在训练之前 , 没必要像在真正的卷积中那样首先反转过滤器 。
3D 卷积
在上一节的解释中 , 我们看到我们实际上是对一个 3D 体积执行卷积 。 但通常而言 , 我们仍在深度学习中称之为 2D 卷积 。 这是在 3D 体积数据上的 2D 卷积 。 过滤器深度与输入层深度一样 。 这个 3D 过滤器仅沿两个方向移动(图像的高和宽) 。 这种操作的输出是一张 2D 图像(仅有一个通道) 。
很自然 , 3D 卷积确实存在 。 这是 2D 卷积的泛化 。 下面就是 3D 卷积 , 其过滤器深度小于输入层深度(核大小<通道大小) 。 因此 , 3D 过滤器可以在所有三个方向(图像的高度、宽度、通道)上移动 。 在每个位置 , 逐元素的乘法和加法都会提供一个数值 。 因为过滤器是滑过一个 3D 空间 , 所以输出数值也按 3D 空间排布 。 也就是说输出是一个 3D 数据 。
反转|一文读懂深度学习中的各种卷积
文章图片

在 3D 卷积中 , 3D 过滤器可以在所有三个方向(图像的高度、宽度、通道)上移动 。 在每个位置 , 逐元素的乘法和加法都会提供一个数值 。 因为过滤器是滑过一个 3D 空间 , 所以输出数值也按 3D 空间排布 。 也就是说输出是一个 3D 数据 。
与 2D 卷积(编码了 2D 域中目标的空间关系)类似 , 3D 卷积可以描述 3D 空间中目标的空间关系 。 对某些应用(比如生物医学影像中的 3D 分割/重构)而言 , 这样的 3D 关系很重要 , 比如在 CT 和 MRI 中 , 血管之类的目标会在 3D 空间中蜿蜒曲折 。
转置卷积(去卷积)
对于很多网络架构的很多应用而言 , 我们往往需要进行与普通卷积方向相反的转换 , 即我们希望执行上采样 。 例子包括生成高分辨率图像以及将低维特征图映射到高维空间 , 比如在自动编码器或形义分割中 。 (在后者的例子中 , 形义分割首先会提取编码器中的特征图 , 然后在解码器中恢复原来的图像大小 , 使其可以分类原始图像中的每个像素 。 )
实现上采样的传统方法是应用插值方案或人工创建规则 。 而神经网络等现代架构则倾向于让网络自己自动学习合适的变换 , 无需人类干预 。 为了做到这一点 , 我们可以使用转置卷积 。
转置卷积在文献中也被称为去卷积或 fractionally strided convolution 。 但是 , 需要指出「去卷积(deconvolution)」这个名称并不是很合适 , 因为转置卷积并非信号/图像处理领域定义的那种真正的去卷积 。 从技术上讲 , 信号处理中的去卷积是卷积运算的逆运算 。 但这里却不是这种运算 。 因此 , 某些作者强烈反对将转置卷积称为去卷积 。 人们称之为去卷积主要是因为这样说很简单 。 后面我们会介绍为什么将这种运算称为转置卷积更自然且更合适 。
我们一直都可以使用直接的卷积实现转置卷积 。 对于下图的例子 , 我们在一个 2×2 的输入(周围加了 2×2 的单位步长的零填充)上应用一个 3×3 核的转置卷积 。 上采样输出的大小是 4×4 。
反转|一文读懂深度学习中的各种卷积
文章图片

将 2×2 的输入上采样成 4×4 的输出
有趣的是 , 通过应用各种填充和步长 , 我们可以将同样的 2×2 输入图像映射到不同的图像尺寸 。 下面 , 转置卷积被用在了同一张 2×2 输入上(输入之间插入了一个零 , 并且周围加了 2×2 的单位步长的零填充) , 所得输出的大小是 5×5 。
反转|一文读懂深度学习中的各种卷积
文章图片

将 2×2 的输入上采样成 5×5 的输出
观察上述例子中的转置卷积能帮助我们构建起一些直观认识 。 但为了泛化其应用 , 了解其可以如何通过计算机的矩阵乘法实现是有益的 。 从这一点上我们也可以看到为何「转置卷积」才是合适的名称 。
在卷积中 , 我们定义 C 为卷积核 , Large 为输入图像 , Small 为输出图像 。 经过卷积(矩阵乘法)后 , 我们将大图像下采样为小图像 。 这种矩阵乘法的卷积的实现遵照:C x Large = Small 。
下面的例子展示了这种运算的工作方式 。 它将输入平展为 16×1 的矩阵 , 并将卷积核转换为一个稀疏矩阵(4×16) 。 然后 , 在稀疏矩阵和平展的输入之间使用矩阵乘法 。 之后 , 再将所得到的矩阵(4×1)转换为 2×2 的输出 。
反转|一文读懂深度学习中的各种卷积
文章图片

卷积的矩阵乘法:将 Large 输入图像(4×4)转换为 Small 输出图像(2×2)
现在 , 如果我们在等式的两边都乘上矩阵的转置 CT , 并借助「一个矩阵与其转置矩阵的乘法得到一个单位矩阵」这一性质 , 那么我们就能得到公式 CT x Small = Large , 如下图所示 。
反转|一文读懂深度学习中的各种卷积
文章图片

卷积的矩阵乘法:将 Small 输入图像(2×2)转换为 Large 输出图像(4×4)
这里可以看到 , 我们执行了从小图像到大图像的上采样 。 这正是我们想要实现的目标 。 现在 。 你就知道「转置卷积」这个名字的由来了 。
转置矩阵的算术解释可参阅:https://arxiv.org/abs/1603.07285
扩张卷积(Atrous 卷积)
扩张卷积由这两篇引入:

  • https://arxiv.org/abs/1412.7062 ;
  • https://arxiv.org/abs/1511.07122
这是一个标准的离散卷积:
反转|一文读懂深度学习中的各种卷积
文章图片

扩张卷积如下:
当 l=1 时 , 扩张卷积会变得和标准卷积一样 。
反转|一文读懂深度学习中的各种卷积
文章图片

扩张卷积
直观而言 , 扩张卷积就是通过在核元素之间插入空格来使核「膨胀」 。 新增的参数 l(扩张率)表示我们希望将核加宽的程度 。 具体实现可能各不相同 , 但通常是在核元素之间插入 l-1 个空格 。 下面展示了 l = 1, 2, 4 时的核大小 。
反转|一文读懂深度学习中的各种卷积
文章图片

扩张卷积的感受野 。 我们基本上无需添加额外的成本就能有较大的感受野 。
在这张图像中 , 3×3 的红点表示经过卷积后 , 输出图像是 3×3 像素 。 尽管所有这三个扩张卷积的输出都是同一尺寸 , 但模型观察到的感受野有很大的不同 。 l=1 时感受野为 3×3 , l=2 时为 7×7 。 l=3 时 , 感受野的大小就增加到了 15×15 。 有趣的是 , 与这些操作相关的参数的数量是相等的 。 我们「观察」更大的感受野不会有额外的成本 。 因此 , 扩张卷积可用于廉价地增大输出单元的感受野 , 而不会增大其核大小 , 这在多个扩张卷积彼此堆叠时尤其有效 。
论文《Multi-scale context aggregation by dilated convolutions》的作者用多个扩张卷积层构建了一个网络 , 其中扩张率 l 每层都按指数增大 。 由此 , 有效的感受野大小随层而指数增长 , 而参数的数量仅线性增长 。
这篇论文中扩张卷积的作用是系统性地聚合多个比例的形境信息 , 而不丢失分辨率 。 这篇论文表明其提出的模块能够提升那时候(2016 年)的当前最佳形义分割系统的准确度 。 请参阅那篇论文了解更多信息 。
可分卷积
某些神经网络架构使用了可分卷积 , 比如 MobileNets 。 可分卷积有空间可分卷积和深度可分卷积 。
1、空间可分卷积
空间可分卷积操作的是图像的 2D 空间维度 , 即高和宽 。 从概念上看 , 空间可分卷积是将一个卷积分解为两个单独的运算 。 对于下面的示例 , 3×3 的 Sobel 核被分成了一个 3×1 核和一个 1×3 核 。
Sobel 核可分为一个 3x1 和一个 1x3 核
在卷积中 , 3×3 核直接与图像卷积 。 在空间可分卷积中 , 3×1 核首先与图像卷积 , 然后再应用 1×3 核 。 这样 , 执行同样的操作时仅需 6 个参数 , 而不是 9 个 。
此外 , 使用空间可分卷积时所需的矩阵乘法也更少 。 给一个具体的例子 , 5×5 图像与 3×3 核的卷积(步幅=1 , 填充=0)要求在 3 个位置水平地扫描核(还有 3 个垂直的位置) 。 总共就是 9 个位置 , 表示为下图中的点 。 在每个位置 , 会应用 9 次逐元素乘法 。 总共就是 9×9=81 次乘法 。
反转|一文读懂深度学习中的各种卷积
文章图片

具有 1 个通道的标准卷积
另一方面 , 对于空间可分卷积 , 我们首先在 5×5 的图像上应用一个 3×1 的过滤器 。 我们可以在水平 5 个位置和垂直 3 个位置扫描这样的核 。 总共就是 5×3=15 个位置 , 表示为下图中的点 。 在每个位置 , 会应用 3 次逐元素乘法 。 总共就是 15×3=45 次乘法 。 现在我们得到了一个 3×5 的矩阵 。 这个矩阵再与一个 1×3 核卷积 , 即在水平 3 个位置和垂直 3 个位置扫描这个矩阵 。 对于这 9 个位置中的每一个 , 应用 3 次逐元素乘法 。 这一步需要 9×3=27 次乘法 。 因此 , 总体而言 , 空间可分卷积需要 45+27=72 次乘法 , 少于普通卷积 。
反转|一文读懂深度学习中的各种卷积
文章图片

具有 1 个通道的空间可分卷积
我们稍微推广一下上面的例子 。 假设我们现在将卷积应用于一张 N×N 的图像上 , 卷积核为 m×m , 步幅为 1 , 填充为 0 。 传统卷积需要 (N-2) x (N-2) x m x m 次乘法 , 空间可分卷积需要 N x (N-2) x m + (N-2) x (N-2) x m = (2N-2) x (N-2) x m 次乘法 。 空间可分卷积与标准卷积的计算成本比为:
反转|一文读懂深度学习中的各种卷积
文章图片

因为图像尺寸 N 远大于过滤器大小(N>>m) , 所以这个比就变成了 2/m 。 也就是说 , 在这种渐进情况(N>>m)下 , 当过滤器大小为 3×3 时 , 空间可分卷积的计算成本是标准卷积的 2/3 。 过滤器大小为 5×5 时这一数值是 2/5;过滤器大小为 7×7 时则为 2/7 。
尽管空间可分卷积能节省成本 , 但深度学习却很少使用它 。 一大主要原因是并非所有的核都能分成两个更小的核 。 如果我们用空间可分卷积替代所有的传统卷积 , 那么我们就限制了自己在训练过程中搜索所有可能的核 。 这样得到的训练结果可能是次优的 。
2、深度可分卷积
现在来看深度可分卷积 , 这在深度学习领域要常用得多(比如 MobileNet 和 Xception) 。 深度可分卷积包含两个步骤:深度卷积核 1×1 卷积 。
在描述这些步骤之前 , 有必要回顾一下我们之前介绍的 2D 卷积核 1×1 卷积 。 首先快速回顾标准的 2D 卷积 。 举一个具体例子 , 假设输入层的大小是 7×7×3(高×宽×通道) , 而过滤器的大小是 3×3×3 。 经过与一个过滤器的 2D 卷积之后 , 输出层的大小是 5×5×1(仅有一个通道) 。
反转|一文读懂深度学习中的各种卷积
文章图片

用于创建仅有 1 层的输出的标准 2D 卷积 , 使用 1 个过滤器
一般来说 , 两个神经网络层之间会应用多个过滤器 。 假设我们这里有 128 个过滤器 。 在应用了这 128 个 2D 卷积之后 , 我们有 128 个 5×5×1 的输出映射图(map) 。 然后我们将这些映射图堆叠成大小为 5×5×128 的单层 。 通过这种操作 , 我们可将输入层(7×7×3)转换成输出层(5×5×128) 。 空间维度(即高度和宽度)会变小 , 而深度会增大 。
反转|一文读懂深度学习中的各种卷积
文章图片

用于创建有 128 层的输出的标准 2D 卷积 , 要使用 128 个过滤器
现在使用深度可分卷积 , 看看我们如何实现同样的变换 。
首先 , 我们将深度卷积应用于输入层 。 但我们不使用 2D 卷积中大小为 3×3×3 的单个过滤器 , 而是分开使用 3 个核 。 每个过滤器的大小为 3×3×1 。 每个核与输入层的一个通道卷积(仅一个通道 , 而非所有通道!) 。 每个这样的卷积都能提供大小为 5×5×1 的映射图 。 然后我们将这些映射图堆叠在一起 , 创建一个 5×5×3 的图像 。 经过这个操作之后 , 我们得到大小为 5×5×3 的输出 。 现在我们可以降低空间维度了 , 但深度还是和之前一样 。
反转|一文读懂深度学习中的各种卷积
文章图片

深度可分卷积——第一步:我们不使用 2D 卷积中大小为 3×3×3 的单个过滤器 , 而是分开使用 3 个核 。 每个过滤器的大小为 3×3×1 。 每个核与输入层的一个通道卷积(仅一个通道 , 而非所有通道!) 。 每个这样的卷积都能提供大小为 5×5×1 的映射图 。 然后我们将这些映射图堆叠在一起 , 创建一个 5×5×3 的图像 。 经过这个操作之后 , 我们得到大小为 5×5×3 的输出 。
在深度可分卷积的第二步 , 为了扩展深度 , 我们应用一个核大小为 1×1×3 的 1×1 卷积 。 将 5×5×3 的输入图像与每个 1×1×3 的核卷积 , 可得到大小为 5×5×1 的映射图 。
反转|一文读懂深度学习中的各种卷积
文章图片

因此 , 在应用了 128 个 1×1 卷积之后 , 我们得到大小为 5×5×128 的层 。
反转|一文读懂深度学习中的各种卷积
文章图片

深度可分卷积——第二步:应用多个 1×1 卷积来修改深度 。
通过这两个步骤 , 深度可分卷积也会将输入层(7×7×3)变换到输出层(5×5×128) 。
下图展示了深度可分卷积的整个过程 。
深度可分卷积的整个过程
所以 , 深度可分卷积有何优势呢?效率!相比于 2D 卷积 , 深度可分卷积所需的操作要少得多 。
回忆一下我们的 2D 卷积例子的计算成本 。 有 128 个 3×3×3 个核移动了 5×5 次 , 也就是 128 x 3 x 3 x 3 x 5 x 5 = 86400 次乘法 。
可分卷积又如何呢?在第一个深度卷积步骤 , 有 3 个 3×3×1 核移动 5×5 次 , 也就是 3x3x3x1x5x5 = 675 次乘法 。 在 1×1 卷积的第二步 , 有 128 个 1×1×3 核移动 5×5 次 , 即 128 x 1 x 1 x 3 x 5 x 5 = 9600 次乘法 。 因此 , 深度可分卷积共有 675 + 9600 = 10275 次乘法 。 这样的成本大概仅有 2D 卷积的 12%!
所以 , 对于任意尺寸的图像 , 如果我们应用深度可分卷积 , 我们可以节省多少时间?让我们泛化以上例子 。 现在 , 对于大小为 H×W×D 的输入图像 , 如果使用 Nc 个大小为 h×h×D 的核执行 2D 卷积(步幅为 1 , 填充为 0 , 其中 h 是偶数) 。 为了将输入层(H×W×D)变换到输出层((H-h+1)x (W-h+1) x Nc) , 所需的总乘法次数为:
Nc x h x h x D x (H-h+1) x (W-h+1)
另一方面 , 对于同样的变换 , 深度可分卷积所需的乘法次数为:
D x h x h x 1 x (H-h+1) x (W-h+1) + Nc x 1 x 1 x D x (H-h+1) x (W-h+1) = (h x h + Nc) x D x (H-h+1) x (W-h+1)
则深度可分卷积与 2D 卷积所需的乘法次数比为:
反转|一文读懂深度学习中的各种卷积
文章图片

现代大多数架构的输出层通常都有很多通道 , 可达数百甚至上千 。 对于这样的层(Nc >> h) , 则上式可约简为 1 / h2 。 基于此 , 如果使用 3×3 过滤器 , 则 2D 卷积所需的乘法次数是深度可分卷积的 9 倍 。 如果使用 5×5 过滤器 , 则 2D 卷积所需的乘法次数是深度可分卷积的 25 倍 。
使用深度可分卷积有什么坏处吗?当然是有的 。 深度可分卷积会降低卷积中参数的数量 。 因此 , 对于较小的模型而言 , 如果用深度可分卷积替代 2D 卷积 , 模型的能力可能会显著下降 。 因此 , 得到的模型可能是次优的 。 但是 , 如果使用得当 , 深度可分卷积能在不降低你的模型性能的前提下帮助你实现效率提升 。
分组卷积
AlexNet 论文(https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf)在 2012 年引入了分组卷积 。 实现分组卷积的主要原因是让网络训练可在 2 个内存有限(每个 GPU 有 1.5 GB 内存)的 GPU 上进行 。 下面的 AlexNet 表明在大多数层中都有两个分开的卷积路径 。 这是在两个 GPU 上执行模型并行化(当然如果可以使用更多 GPU , 还能执行多 GPU 并行化) 。
反转|一文读懂深度学习中的各种卷积
文章图片

图片来自 AlexNet 论文
这里我们介绍一下分组卷积的工作方式 。 首先 , 典型的 2D 卷积的步骤如下图所示 。 在这个例子中 , 通过应用 128 个大小为 3×3×3 的过滤器将输入层(7×7×3)变换到输出层(5×5×128) 。 推广而言 , 即通过应用 Dout 个大小为 h x w x Din 的核将输入层(Hin x Win x Din)变换到输出层(Hout x Wout x Dout) 。
标准的 2D 卷积
在分组卷积中 , 过滤器会被分为不同的组 。 每一组都负责特定深度的典型 2D 卷积 。 下面的例子能让你更清楚地理解 。
反转|一文读懂深度学习中的各种卷积
文章图片

具有两个过滤器分组的分组卷积
上图展示了具有两个过滤器分组的分组卷积 。 在每个过滤器分组中 , 每个过滤器的深度仅有名义上的 2D 卷积的一半 。 它们的深度是 Din/2 。 每个过滤器分组包含 Dout/2 个过滤器 。 第一个过滤器分组(红色)与输入层的前一半([:, :, 0:Din/2])卷积 , 而第二个过滤器分组(橙色)与输入层的后一半([:, :, Din/2:Din])卷积 。 因此 , 每个过滤器分组都会创建 Dout/2 个通道 。 整体而言 , 两个分组会创建 2×Dout/2 = Dout 个通道 。 然后我们将这些通道堆叠在一起 , 得到有 Dout 个通道的输出层 。
1、分组卷积与深度卷积
你可能会注意到分组卷积与深度可分卷积中使用的深度卷积之间存在一些联系和差异 。 如果过滤器分组的数量与输入层通道的数量相同 , 则每个过滤器的深度都为 Din/Din=1 。 这样的过滤器深度就与深度卷积中的一样了 。
另一方面 , 现在每个过滤器分组都包含 Dout/Din 个过滤器 。 整体而言 , 输出层的深度为 Dout 。 这不同于深度卷积的情况——深度卷积并不会改变层的深度 。 在深度可分卷积中 , 层的深度之后通过 1×1 卷积进行扩展 。
分组卷积有几个优点 。
第一个优点是高效训练 。 因为卷积被分成了多个路径 , 每个路径都可由不同的 GPU 分开处理 , 所以模型可以并行方式在多个 GPU 上进行训练 。 相比于在单个 GPU 上完成所有任务 , 这样的在多个 GPU 上的模型并行化能让网络在每个步骤处理更多图像 。 人们一般认为模型并行化比数据并行化更好 。 后者是将数据集分成多个批次 , 然后分开训练每一批 。 但是 , 当批量大小变得过小时 , 我们本质上是执行随机梯度下降 , 而非批梯度下降 。 这会造成更慢 , 有时候更差的收敛结果 。
在训练非常深的神经网络时 , 分组卷积会非常重要 , 正如在 ResNeXt 中那样 。
反转|一文读懂深度学习中的各种卷积
文章图片

图片来自 ResNeXt 论文 , https://arxiv.org/abs/1611.05431
第二个优点是模型会更高效 , 即模型参数会随过滤器分组数的增大而减少 。 在之前的例子中 , 完整的标准 2D 卷积有 h x w x Din x Dout 个参数 。 具有 2 个过滤器分组的分组卷积有 (h x w x Din/2 x Dout/2) x 2 个参数 。 参数数量减少了一半 。
第三个优点有些让人惊讶 。 分组卷积也许能提供比标准完整 2D 卷积更好的模型 。 另一篇出色的博客已经解释了这一点:https://blog.yani.io/filter-group-tutorial 。 这里简要总结一下 。
原因和稀疏过滤器的关系有关 。 下图是相邻层过滤器的相关性 。 其中的关系是稀疏的 。
反转|一文读懂深度学习中的各种卷积
文章图片

在 CIFAR10 上训练的一个 Network-in-Network 模型中相邻层的过滤器的相关性矩阵 。 高度相关的过滤器对更明亮 , 而相关性更低的过滤器则更暗 。 图片来自:https://blog.yani.io/filter-group-tutorial
分组矩阵的相关性映射图又如何?
反转|一文读懂深度学习中的各种卷积
文章图片

在 CIFAR10 上训练的一个 Network-in-Network 模型中相邻层的过滤器的相关性 , 动图分别展示了有 1、2、4、8、16 个过滤器分组的情况 。 图片来自 https://blog.yani.io/filter-group-tutorial
上图是当用 1、2、4、8、16 个过滤器分组训练模型时 , 相邻层的过滤器之间的相关性 。 那篇文章提出了一个推理:「过滤器分组的效果是在通道维度上学习块对角结构的稀疏性……在网络中 , 具有高相关性的过滤器是使用过滤器分组以一种更为结构化的方式学习到 。 从效果上看 , 不必学习的过滤器关系就不再参数化 。 这样显著地减少网络中的参数数量能使其不容易过拟合 , 因此 , 一种类似正则化的效果让优化器可以学习得到更准确更高效的深度网络 。 」
反转|一文读懂深度学习中的各种卷积
文章图片

AlexNet conv1 过滤器分解:正如作者指出的那样 , 过滤器分组似乎会将学习到的过滤器结构性地组织成两个不同的分组 。 本图来自 AlexNet 论文 。
此外 , 每个过滤器分组都会学习数据的一个独特表征 。 正如 AlexNet 的作者指出的那样 , 过滤器分组似乎会将学习到的过滤器结构性地组织成两个不同的分组——黑白过滤器和彩色过滤器 。
你认为深度学习领域的卷积还有那些值得注意的地方?
原文链接:https://towardsdatascience.com/a-comprehensive-introduction-to-different-types-of-convolutions-in-deep-learning-669281e58215
—版权声明—
来源:机器之心 , 编辑:nhyilin
仅用于学术分享 , 版权属于原作者 。
若有侵权 , 请联系微信号:Eternalhui或nhyilin删除或修改!
—THE END—
? 平凡而又神奇的贝叶斯方法
? 怎样用数学找到一颗丢失的氢弹?
? 【物理方程】物理学中最难的方程之一 , 你知道多少?
? 为什么一定要拼尽全力考上985、211大学?
? 怎样判断漂亮女孩是不是单身的?
【反转|一文读懂深度学习中的各种卷积】? 投资数学天才西蒙斯:尽你所能和最优秀的人合作

    推荐阅读