应用|360人工智能研究院:保障数据安全亟需构建AI安全标准

“随着人工智能和大数据技术的应用落地 , 特别是在自动驾驶、人脸识别、医疗诊断等安全敏感型的场景应用越来越多 , AI和数据安全问题也受到广泛关注 。 ”近日 , 360人工智能研究院院长邓亚峰受邀参加首届清华大学人工智能合作与治理国际论坛 , 并就“数据与人工智能安全”议题发表演讲 。
邓亚峰指出 , 由于人工智能是快速出现的新应用 , AI应用生产和部署的各个环节均暴露出一系列安全风险 。 比如在人工智能框架方面 , 深度学习框架及依赖组件可能带有漏洞 , 存在容易被忽视的安全隐患;在人工智能应用方面 , 存在模型文件窃取、数据流降维攻击等安全风险;在人工智能算法方面 , 由于神经网络模型的黑盒属性(不可解释性) , 容易导致一系列以模型误判为目标的恶意攻击 。
这就容易造成严重的数据泄露和安全风险 。 “我们在实践中发现了大量以隐私窃取为目标的攻击 , 如模型反转攻击、模型萃取攻击、成员推断攻击等 。 ”邓亚峰表示 。
他认为 , 虽然从技术角度看 , 人工智能体很长一段时间都无法拥有真正的自我意识 , 但是 , 一些坏人会对人工智能加以利用 , 伪装为坏的AI对人类安全造成威胁 。 因此 , 保护人工智能和数据安全刻不容缓 。
【应用|360人工智能研究院:保障数据安全亟需构建AI安全标准】邓亚峰表示 , 需要构建统一的人工智能硬件、软件、算法的安全评估标准和准则 , 并开发相关系统 , 用于检测和确定人工智能相关系统的整体安全 , 特别是开源框架和软件方面 , 更需要统一行动;此外 , 还需要用更加开放协同的方式进行科学研究和技术交流 , 推动人工智能技术快速并安全的落地 。

    推荐阅读