当机器学习时,人类会失去控制( 三 )

从大西洋:

“ Cicurel很生气 。 她提出了挑战 , 以查看报告的基本方法 。 发现的结果使她感到更加困扰:D的风险评估增加是基于几个似乎带有种族偏见的因素 , 包括他居住在政府中这一事实 。 补贴住房 , 并对警察表达了消极态度 。 ”

最终 , Cicuelel得知AI从未经过科学验证 。 唯一的评论来自研究生的未发表论文 。 案件的法官取消了测试 。 尽管如此 , 人工智能仍被用于刑事司法 , 并发现了其他缺陷的例子 , 可能还会有更多的人受到不公平的伤害 。

并非所有AI都说明他们的想法

Cicurel能够查看并查看AI将客户标记为“高风险”的基本方法 。 并非每个AI都具有解释其如何制定决策的能力 。 如果Google的任何团队中的任何人都能解释搜索引擎的工作原理 , 我会感到震惊 。 我有99%的把握确保Google没有按钮可以打印出机器学习层用来整理搜索结果的底层方法 。

人们每天都在使用普通用户无法理解的技术 , 但是不知道电视或汽车的工作方式与不知道软件如何做出改变人生的决定有很大的不同 。 我们可能不在乎AI是如何产生艺术的 , 当将AI用于医学筛查时 , 潜在的思维过程并不重要 。

推荐阅读