第六期“AI未来说·青年学术论坛”带你进击机器学习( 六 )


\n \n


\n

王奕森博士作“AdversarialMachine Learning: Attack and Defense”的报告分享

\n \n \n

作为清华大学计算机科学与技术系博士毕业生 , 美国乔治亚理工大学和澳大利亚墨尔本大学访问学者 , 百度奖学金获得者 , 王奕森博士报告的主要内容包括:对抗机器学习研究意义、对抗学习的攻击(Attack)和防御(Defence)介绍、对抗训练中的收敛质量的指标FOSC(First-OrderStationary Condition)和动态对抗训练算法以及总结四个部分 。

\n \n

报告首先以机器学习顶会中的best paper作为引入 , 展示了学术界对对抗机器学习的关注 , 并以视觉问答系统、自动驾驶和相关的自动监控的视频生动形象地介绍了机器学习中对抗的例子 , 并延伸至物理世界真实存在的相关例子 。 接着 , 从攻、防两方面介绍了对抗学习:在攻击方面 , 分别以黑盒攻击和白盒攻击两种类型探讨了如何生成对抗实例来攻击深度模型;在防守方面 , 从检测和对抗训练两个角度探讨了如何提高深度模型对对抗实例的鲁棒性 。 然后 , 重点介绍了对抗训练概念及其核心思想 , 并从对抗训练收敛性的角度 , 提出了FOSC的概念及其封闭解形式 , 以及对抗强度、对抗训练过程的FOSC描述(详情参看ICML2019Long Oral 论文 , Yisen Wang et.al “On the Convergence and Robustness ofAdversarial Training”) 。 同时 , 提出了动态对抗训练的方法 , 并对其收敛性和鲁棒性进行了分析 , 并给出其FOSC描述 。 最后 , 对对抗机器学习研究进行了总结和展望 。

推荐阅读