图灵奖得主 LeCun 用来怼 Google 的乳腺癌 AI 论文,有何过人之处?(11)

2) ‘image-wise’模型(图5(b))独立地对四个视图中的每一个进行预测 。 相应的预测最后取平均值 。

3) ‘side-wise’模型(图5(c))首先连接L-CC和L-MLO , 以及R-CC和R-MLO , 然后分别对每侧乳腺进行预测 。

4) ‘joint’模型(图5(d))连接所有四个视图 , 共同预测两个乳房的恶性和良性概率 。

在所有模型中 , 我们使用四个基于ResNet的22层网络(ResNet-22)作为中间层 , 计算每个视图的256维隐藏层向量 。 与标准ResNets相比 , 该网络具有不同的深度和宽度比例 , 可用于分辨率非常高的图像 。

我们发现“view”模型在验证集上预测恶性/非恶性是最精确的 。 除非另有说明 , 否则我们接下来说的都是该模型的结果 。

【图4】

A.单个ResNet-22

推荐阅读