2019 年度回顾:抵制之声暗潮涌动,AI 自身该如何负起责任?( 六 )

欧洲同样也发生着此类抵制运动:英国议会委员会呼吁 , 在建立法律框架前要停止对人脸识别的试验;而布鲁塞尔警方对这些人脸识别技术工具进行测试的行为 , 近来也被视作是非法的 。

当然 , 要实现这些改变 , 我们还有很长一段路要走 。 而现在我们需要明确的一点是 , 这并不属于完善技术和消除偏见方面的问题 。 鉴于被监视、追踪和逮捕的人存在种族、收入方面的差异 , 即便是再精准的人脸识别技术也会带来不同的危害 。 正如 Kate Crawford 最近在《自然》杂志上所写道的:消除系统的偏见并非 AI 的重点 , 这些系统「发生故障时会带来危险 , 顺利工作时则会带来危害」 。

二、从「AI 偏见」到公正的转变

今年 , 我们也看到了人工智能界的一项重要进步:从狭隘地聚焦于从纯技术层面对 AI「去偏见」转变到更实质性地关注公正 。

一定程度上 , 这也是由很多令人不安的事件所推动的 。

例如 , 密歇根州前州长 Rick Snyder 是一位技术主管 , 曾主导治理过「弗林特水危机」 , 也正是他决定安装一个可用于整个州的自动化决策系统——MiDAS 。 该系统设计的初衷就是用来自动标记出涉嫌福利欺诈的工人 。 为了削减福利开支 , 该州安装了 MiDAS 系统 , 整个欺诈检测部门的人都遭解雇 。 然而 , 该系统最终被证明存在 93% 的错误率——它错误地检测出 40000 多名居民涉嫌福利欺诈 , 导致很多人面临破产甚至自杀 。 值得一提的是 , MiDAS 还只是一众旨在缩减贫困人口的紧缩政策中的一个案例 。

推荐阅读