AI正学会所有偏见!精华与糟粕通吃,算法偏见更难辨认也更持久( 四 )

算法完成后与人类判断有 90% 到 95% 的一致率 , 因此被投入使用 。 但直到 4 年后 , 调查者才发现:算法会仅仅因为一个候选人没有欧洲名字(可能不是白人) , 就扣除 15 分 。 如果申请者是女性 , 又要被扣掉 3 分 。

\n

“从深层次看 , 算法只是在维持招生系统早已存在的偏见而已 。 ”IEEE 的文章评论说 , “圣乔治医学院之所以被逮住 , 是因为他们把偏见供奉到一个计算机程序里面 , 歧视是调查者可以验证的 。 ”

\n

但对于人工智能的黑箱式决策 , 情况变得更加复杂 。 性别或出生地在算法中并不对应单一可辨的参数 , 你很难给机器“定罪” 。 “在大工业时代 , 机器以暴露齿轮来展示强大 。 但如今 , 齿轮被隐藏起来 , 融入生活 , 无处不在 , AI 就是这个齿轮 。 ”一篇《福布斯》文章精辟地说 。

\n

在这种黑箱决策面前 , 反歧视法案可能也无能为力 。 Kriti Sharma 认为 , 如果 AI 帮人事主管寻找一位技术领袖 , 它会发现主管雇佣的大多是男性 , 从而以为男人比女人更容易编程 。 如果人类主管这样做 , 我们会愤怒 , 也能够阻止 。 “人工智能实际已凌驾于法律之上 , 因为是机器做的决定 。 ”

推荐阅读