欧盟考虑在公共场所禁止使用人脸识别技术,技术进步和保护隐私如何同步?( 三 )

\n

人工智能是复杂的技术群 , 同时广泛渗透于政治经济社会各领域 , 因此人工智能的治理不同于大规模杀伤性武器或基因技术等的治理 , 没有显而易见的“禁区” , 具有极大的复杂性和不确定性 。 李辉认为 , 数据来源的合法性是当前治理的重点 。 人工智能当前的主流技术路线依赖数据的“喂养” , 但是由于各国的法律传统、文化背景不同 , 数据的开放、流通标准也各不相同 , 因此围绕这一问题出现很多争论 。 尤其个人数据与隐私息息相关 , 而隐私问题又具有价值观和意识形态属性 , 因此数据来源问题有时也成为颇具争议的国际政治议题 。

\n

“随着深度学习的发展 , 深度造假也成为现实 。 ”李辉说 , 由于人工智能可以合成声音、图像和视频 , 深度造假将极大挑战“眼见为实”这一社会常识 , 造成秩序混乱 。 当一个机器合成的朋友、同事或者领导进入网络交流 , 如果人们分辨不出它们的真实性 , 很可能会造成严重后果 。

\n

据介绍 , 欧盟考虑在公共场所禁止使用人脸识别技术之前 , 就已出台了具有法律效力的《通用数据保护条例》 , 以及《可信赖AI的伦理准则》(专家组意见) 。 同样地 , 人脸识别技术在美国也受到了限制 。 去年5月和7月 , 美国旧金山和萨默维尔相继出台法令 , 禁止警察和其他政府机构使用人脸识别技术 。 但与此同时 , 美国政府和智库则对这些政策的出台表示 , 担心对人工智能过度治理 , 会影响人工智能有效发展 。

推荐阅读