AI正学会所有偏见!精华与糟粕通吃,算法偏见更难辨认也更持久( 五 )

\n

更值得担忧的是 , AI 决策可能放大了科技企业和数据标注者的权力 , 因为无人能监督 。 一个名为 ImageNet Roulette 的流行应用 , 曾故意向人们展示这种风险:它曾倾向于将非洲裔美国人标记为“不法分子”“罪犯” , 此外还有“失败者”“初学者”“荡妇”这样的标签 。

\n

\n

图 | ImageNet 展示了为人们打上刻板标签的权力 , 如何从拿低薪的标注者手中转移到算法上(来源:frieze.com)

\n

它的训练数据来自 ImageNet 数据集 , 包含了 1400 张被标记的照片 , 而每张标记费用为几美分 。 因此标签标注者的偏见便被带入数据集 , 训练出各种算法 , 应用在形形色色的领域 。 “如果标注女性照片的人不选非二元人群或短发女性 , 那最终得到的人工智能就只认长发的女性模特 。 ”

\n

在被发现算法存在机器偏见时 , 谷歌和亚马逊都会承诺迅速解决 。 “我们发现的明显的偏见 , 但里面如果还有几个呢?”Bohannon 博士说 。 如果要依赖这种决策 , “正如生物学家努力理解细胞工作原理一样 , 软件工程师也必须找到理解 BERT 系统的方法 。 ”

推荐阅读