AI正学会所有偏见!精华与糟粕通吃,算法偏见更难辨认也更持久( 三 )

\n

另一位计算机科学家 Robert Munro 发现 , 展示给 BERT 100 个单词 , 包含马、婴儿、房子、珠宝等 。 BERT 会认为大部分与男性有关 , 仅妈妈是个例外 。

\n

“BERT 改变了一切 , 你可以教它所有技巧 。 ”NLP 初创公司 Primer 的科学主管 John Bohannon 说 。 Munro 则认为 , 不平等现象一直存在 , 但有了 BERT , 偏见就能够继续存在下去 。

\n

“是时候把算法当作人类设计的造物了 。 ”人工智能批评人士 Kate Crawford 说 , 算法经常被看作是不带偏见、不可理解、勿需质疑的对象 , 但实际它会继承我们的偏见 , 它只可能跟我们一样好 。

\n

\n

决策黑盒为偏见“藏污纳垢”

\n

人们最初确实天真地以为 , 算法能比人类更能避免偏见 。 1970 年代 , 伦敦圣乔治医学院的 Geoffrey Franglen 博士着手编写一个算法来筛选学生的入学申请 。 他认为 , 如果所有学生的申请都要遵循完全一样的评估流程 , 结果就是公平的 。

\n

推荐阅读