原创<br> 医疗AI隐私不担忧!英伟达首推新影像分析系统,无需共享患者数据( 三 )

二、仅共享模型的10%时,仍能保证系统性能

据研究人员解释,虽然联邦学习可以保证极高的隐私安全性,但通过模型反演,模型性能并不会打折扣。

在试验中,研究人员采取的第一步是仅将模型更新的一部分从节点回传到中央服务器。据发现,在仅共享模型10%的情况下,仍可以汇总性能水平与使用集中式学习系统所达到的性能水平相当的共识模型。

相比于数据集中式系统,联邦学习所提供的方法可以在不共享机构数据的情况下,更大程度地利用数据信息。通过使用稀疏向量表示方法,联邦学习系统可以实现严格隐私保护,同时对模型性能仅产生合理的轻微影响。

然后,研究团队又进一步通过差分隐私技术向模型注入了随机噪声,以干扰数据。据发现,在共享40%的模型并注入噪声的情况下,模型仍然可以达到相同的性能水平。差分隐私框架是一种向数据集添加噪音以度量隐私损失的方法,该方法可以用来保护患者与机构数据隐私。

据了解,试验基于BraTS 2018数据集的脑肿瘤分割数,涉及285位脑肿瘤患者的MRI扫描结果。

推荐阅读