AI正学会所有偏见!精华与糟粕通吃,算法偏见更难辨认也更持久( 五 )
\n
更值得担忧的是 , AI 决策可能放大了科技企业和数据标注者的权力 , 因为无人能监督 。 一个名为 ImageNet Roulette 的流行应用 , 曾故意向人们展示这种风险:它曾倾向于将非洲裔美国人标记为“不法分子”“罪犯” , 此外还有“失败者”“初学者”“荡妇”这样的标签 。
\n\n
图 | ImageNet 展示了为人们打上刻板标签的权力 , 如何从拿低薪的标注者手中转移到算法上(来源:frieze.com)
\n它的训练数据来自 ImageNet 数据集 , 包含了 1400 张被标记的照片 , 而每张标记费用为几美分 。 因此标签标注者的偏见便被带入数据集 , 训练出各种算法 , 应用在形形色色的领域 。 “如果标注女性照片的人不选非二元人群或短发女性 , 那最终得到的人工智能就只认长发的女性模特 。 ”
\n在被发现算法存在机器偏见时 , 谷歌和亚马逊都会承诺迅速解决 。 “我们发现的明显的偏见 , 但里面如果还有几个呢?”Bohannon 博士说 。 如果要依赖这种决策 , “正如生物学家努力理解细胞工作原理一样 , 软件工程师也必须找到理解 BERT 系统的方法 。 ”
推荐阅读
- s5|一篇文章彻底玩懂云顶之弈S5赛季!轻松玩会所有阵容!
- 大唐|梦幻西游:我们经常对大唐门派有偏见,却不知道它在五开中的优势
- 华为鸿蒙系统|MATE40发布会所有产品曝光,国行将10月22发布,鸿蒙2.0来了
- 苹果|一文看懂苹果秋季发布会所有新品,没有iPhone12
- 华为nova6发布会所有产品价格公布,你会入手哪款产品?
- 社会体育指导员 | 孙秀荣:被社会所需要 才活得有价值
- 洪海讯、陈建文、贵超兰荣获2019年金创意奖国际空间设计大赛会所空间-金奖
- 出入私人会所的院长当庭称遭刑讯逼供 庭审被迫中止
- 有偏见的数据:种族科学的运用与滥用
- 丁书苗会所流拍:资不抵债破产 曾欲打造顶级俱乐部