图灵奖得主 LeCun 用来怼 Google 的乳腺癌 AI 论文,有何过人之处?(13)

这些patch的标签是由临床医生手动勾画的 。 我们将此模型称为patch-level模型 , 与上面一节中描述的对整个乳房图像进行操作的breast-level模型不同 。

我们将该辅助网络以滑动窗口方式扫描全分辨率乳房X片图像 , 以创建每张图像的两张热图(图6为一个示例) , 一张代表每个像素恶性病变概率 , 另一张代表每个像素良性病变概率 。 总共 , 我们获得了八个附加图像:Xm R-CC、Xb R-CC、Xm L-CC、Xb L-CC、Xm R-MLO、Xb R-MLO、Xm L-MLO、Xb L-MLO 。 这些补丁分类热图可以用作乳腺级别模型的附加输入通道 , 以提供补充的细粒度信息 。

【图6】

C. BI-RADS分类预训练

由于我们数据集中有活检的检查相对较少 , 我们应用迁移学习来提高模型的稳健性和性能 。 迁移学习重用在另一个任务上预先训练的模型的一部分作为训练目标模型的起点 。

对于我们的模型 , 我们从BI-RADS分类任务的预训练网络中迁移学习 。 我们考虑的三个BI-RADS类是:类别0(“不正常”) , 类别1(“正常”)和类别2(“良性”) 。 一些研究解释了用于提取这些标签的算法 。 尽管这些标签比活检结果噪声更多(是临床医生根据乳房X光片进行的评估 , 而不是通过活检获得信息) , 但与训练集中经活检证实的4844次检查相比 , 我们有99528多个BI-RADS标签的训练示例 。

推荐阅读