消灭AI的偏见?世界首个无性别语音助手“Q”诞生(14)

而这些 , 可能是开发者自己都意识不到的偏见 。

牛津大学数据伦理和算法领域的研究人员桑德拉 · 沃彻说:

“世界存在偏见 , 历史数据存在偏见 , 因此 , 我们得到带有偏见的结果 , 不足为奇 。 ”

同时 , 机器学习的素材又源自人类 , 如何从算法中消除不恰当的偏见 , 同时又不剥夺它们解读素材的能力 , 这对研发者来说 , 或许是一项非常复杂的任务 。

但作为一种社会责任 , 我们不应回避 。

因为我们希望 , 新科技除了带来更多便利 , 还能够带领全社会向着更加平等和多元的方向发展 , 而不是通过更多的偏好算法来固化我们现有的偏见 。

早在1985年 , 著名的女性科技学者唐娜·哈拉维(Donna Haraway)就曾提出过“赛博格宣言”:

号召人们利用科技铸就新的性别身份 , 在一个由机器、AI和机器学习主导的未来 , 乃至人机相融的未来 , 打破生理上性别的区隔和枷锁 。

推荐阅读