统一|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则

“人工智能开发与隐私保护存在紧张关系;在影视制作、社交、娱乐、教育、电商等领域具有很大正向应用潜能的深度合成也可能被滥用来进行违法活动 。 ”
近日 , 腾讯研究院高级研究员曹建峰在首届清华大学人工智能合作与治理国际论坛分享对算法偏差和深度合成的看法 。 他建议业界探索开发隐私保护型的AI技术方法 , 在隐私保护与数据利用之间实现更好平衡 。
在清华大学人工智能合作与治理国际论坛 “人工智能与数据安全”分论坛上 , 相关学者与产业届人士聚焦讨论数据与人工智能的近期与远期风险、安全挑战及对策 。
分论坛由中科院自动化所中英人工智能伦理与治理中心主任曾毅主持 。 剑桥大学智能未来研究中心研究员丹尼特·加尔(Danit Gal)、荷兰埃因霍温科技大学教授文森特·穆勒(Vincent Muller)、北京师范大学网络法治国际中心执行主任吴沈括等人参与交流 。
【统一|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则】与会专家认为 , 人工智能和数据安全的治理需要世界各国和组织联合起来 , 制定更加明晰有效的法律法规 , 构建统一的人工智能模型与系统的安全评估准则和标准 , 在全球范围内用更加开放协同的方式进行科学研究和技术交流 , 推动人工智能技术在安全的基础上更快速的落地 , 构建更安全、更美好的世界 。

统一|聚焦AI治理|产学界呼吁构建统一的AI模型安全评估准则
文章图片

以下是各位人工智能学者与产业界人士的发言集锦:
丹尼特·加尔:AI的内部风险与外部防御挑战
剑桥大学智能未来研究中心研究员丹尼特·加尔(Danit Gal)重点总结了人工智能安全相关的内部风险与外部防御的近期挑战 , 并对各国数据规制应当形成全球协作提出建议 。
她在主旨演讲中区分了人工智能安全的两大重要概念(Safety和Security)的概念 。 Safety更偏向内部 , 针对的是一些无意伤害的预防措施 , 从系统中保护环境 。 Security更倾向于对外部攻击的防御 , 聚焦在那些有意对个人、组织和财产施加伤害的行为 , 从环境中保护系统 。
她认为 , 科技影响着我们所有人 , 它的安全和保障也是如此 。 然而 , 我们应对这些影响的能力远远落后于开发和使用 。 人工智能和数据流进一步复杂化了这一动态 , 引入并连接了新的机会和新的漏洞 。 丹尼特·加尔建议 , 应加强交流、推动合作 , 以减少脆弱性 , 在全球范围内倡导并激励数据安全治理工作 。
文森特·穆勒:通用AI的长远风险极不确定
荷兰埃因霍温科技大学教授文森特·穆勒(Vincent Muller)在演讲中指出通用人工智能和超级智能的长远风险具有极大不确定性 。
他分成两步介绍了超级智能和通用人工智能的长期风险 , 即从超级智能到技术奇点 , 再从技术奇点到生存风险 。 超级智能指的是在许多非常普遍的认知领域远远超过当今人类最佳智力的人工智能 。
从超级智能到技术奇点 , 他强调了三个前提假设 , 分别是我们拥有更快的速度和更多的数据 , 不需要认知科学 , 以及应用十分紧急 。 从技术奇点到生存风险 , 他强调了两点前提假设 , 理性主体决策理论适用于人工智能 , 以及智能和最终目标的正交性 。
罗曼·扬波尔斯基:超级智能意味着超级控制
美国路易斯维尔大学教授罗曼·扬波尔斯基(Roman Yampolskiy)谈到人工智能、安全和防御的未来 , 并表达了对于人工智能的担忧 。
他在主旨演讲中表示 , 当前超级智能正在来临 , 超级智能意味着超级聪明、超级复杂、超级快速、超级控制、超级病毒 。
他谈到关于人工智能的担心 , 重点介绍了最近的几项研究工作 , 包括通往危险的人工智能的路径分类学、人工智能安全不可能的结果、缓解负面影响、人工智能的限制问题等 。
他认为 , 人工智能失败的时间轴呈指数趋势 , 人工智能失败的频率和严重程度都会增加 , 这与人工智能的能力成比例 。
曹建峰:AI开发与隐私保护存在紧张关系
腾讯研究院高级研究员曹建峰在会上分享了对算法偏差和深度合成(deep synthesis)的看法 , 并提出了解决问题的建议 。
他认为 , 当前人工智能系统必须使用大量数据训练算法 。 如果训练数据是有偏见的或不完整的 , 人工智能系统将会显示有偏见的行为 。 因此 , 人工智能开发应该对数据质量有合理的控制 。 但数据并不是偏见的唯一来源 , 解决算法偏见还需要AI从业人员秉持伦理价值 。 此外 , 人工智能开发与隐私保护存在紧张关系;在影视制作、社交、娱乐、教育、电商等领域具有很大正向应用潜能的深度合成也可能被滥用来进行违法活动 。
为解决这些问题 , 曹建峰给出了四点建议 , 人工智能与数据产品开发需要遵循“通过设计的伦理”(ethics by design)理念 , 将公平、安全等伦理价值融入产品设计全周期 , 并有防止滥用的保障措施;二是在企业、国家乃至国际层面建立负责任的人工智能开发和数据使用的道德准则;三是在国际社会分享最佳实践经验;四是业界需要探索开发隐私保护型的AI技术方法 , 如联邦学习等 , 来在隐私保护与数据利用之间实现更好平衡 。
吴沈括:国际社会需面对数据违法行为带来的法律漏洞
北京师范大学网络法治国际中心执行主任吴沈括在会上表示 , 国际社会需要面对新技术环境下数据违法行为带来的新挑战和法律漏洞 。
首先 , 由于不同地区、国家法律法规的缺失和差异 , 普遍导致对新型数据违法行为司法规制不足 。 其次 , 各国现行法律制度框架尚不能充分保障跨境证据收集与交换的快速高效 。 最后 , 在网络匿名的背景下 , 一些国家的监测、预警和应急机制越来越难以有效应对脆弱性问题的快速增长 。 因此 , 在全球化深入发展的新时代 , 数据违法行为的跨国衍变要求更高水平的国际合作治理 , 建立信任世界 。
邓亚峰:不法分子利用AI会带来伦理问题
奇虎 360 人工智能研究院院长邓亚峰在会上总结了人工智能在数据安全方面存在的潜在威胁 。
首先 , 由于人工智能是快速出现的新应用 , 人工智能应用生产和部署的各个环节都暴露出了一系列的安全风险 。 其次 , 人工智能和大数据应用往往与大量隐私数据关联 , 这些数据往往需要被送到云端进行分析和计算 , 造成了比原来更严重的数据泄露和安全风险 。 第三 , 虽然从技术角度看 , 人工智能体很长一段时间都无法拥有真正的自我意识 , 但是 , 我们无法排除一些不法分子会对人工智能加以利用 , 而这会带来大量的社会伦理问题 。 最后 , 由于人工智能在短期内会造成一部分从事简单重复性工作的人类失业 , 这会引起一定的恐慌和排斥 。 此外 , 人工智能也因为技术的不成熟 , 会被认为在识别结果上存在一定的歧视 。
他认为 , 人工智能和数据安全是全世界都统一面临的问题 , 需要全世界的组织和个人联合起来一起行动 。
(本文来自澎湃新闻 , 更多原创资讯请下载“澎湃新闻”APP)

    推荐阅读