2019 年度回顾:抵制之声暗潮涌动,AI 自身该如何负起责任?( 七 )

另外一个案例来自于 AI Now 的政策负责人 Rashida Richardson 所领导的研究 , 她研究了警察的日常工作与预测性警务软件之间的关联性 。 最终 , 她和她的团队发现 , 在美国多个警察部门中 , 预测性警务系统可能使用了来自存在种族主义和徇私舞弊的警察所留下的带有误导性的记录 。

显而易见 , 在这种情况下 , 纠正系统的偏见的关键点不在于删除数据集中的某一个或另一个变量 , 而是需要改变警察记录数据的做法 。

人权数据分析组(Human Rights Data Analysis Group)研究人员 Kristian Lum 的一项开创性的工作——算法如何放大警务中的歧视性记录 , 也表明了这一点 。

来自普林斯顿大学的 Ruha Benjamin , 最近出版两本意义非凡的书:《追逐科技》(Race After Technology)和编辑本《迷人的科技》(Captivating Technology) 。 她与 Dorothy Roberts 、Alondra Nelson 等一众学者强有力地研究了分类政治、如何利用种族来调整社会等级以及此类逻辑如何应用到 AI 技术中 。

Kate Crawford 和 AI Now 艺术家研究员 Trevor Paglen 最近还在他们的 Training Humans 展览中审视了分类政治 。 该展览是第一个着眼于用来创建机器学习系统的训练数据的大型艺术展 , 它研究了从 Woody Bledsoe 在1963 年所做的第一个实验到最著名和使用最广泛的基准集(例如 Wilded Labeled Faces 和 ImageNet)的 AI 训练集的历史和逻辑 。

推荐阅读