图灵奖得主 LeCun 用来怼 Google 的乳腺癌 AI 论文,有何过人之处?( 十 )

对于CC视图 , 我们将每个图像裁剪为固定大小的2677×1942像素 , 对于MLO视图 , 裁剪为2974×1748像素 。 有关示意图 , 请参见图3 。

【图三】

模型结构和训练

我们受Geras等人先前工作的启发 , 对图5所示的四种不同结构的多视图CNN进行了训练 。 所有这些网络都由两个核心模块组成:(i)四个特定于视图的列 , 每个列基于ResNet体系结构 , 该结构为每个乳腺摄影视图输出固定维度的隐藏层向量表示;(ii)两个全连接层 , 将计算出的隐藏层向量映射到输出预测 。 这些模型在如何聚合来自所有视图的中间层以生成最终预测的方式有所不同 。

我们考虑了以下4种方式 。

【图5】

1) ‘view-wise’模型(图5(a))分别将L-CC和R-CC、L-MLO和R-MLO连接起来 。 它对CC和MLO视图进行单独的预测 , 最后将相应的预测取平均值 。

推荐阅读