信息|班鲍尔和里希:相比于人类决策,消费者更信任算法决策?( 二 )


在人类和算法之间做出选择
我们的研究涵盖了约4000名对在线调查做出回应的人 。 每个受访者都被随机分配到四个场景中的一个 , 在这些场景中 , 人类或算法对不同利害关系做出决策:赢得一张咖啡店的礼品卡;获得一笔银行贷款;接受一项可行性高的治疗方法的临床试验;以及在民事交通法庭上面临一笔巨额罚款 。 然后 , 该调查随机选择人类或算法作为初始(默认)决策者 。 随后 , 调查向受访者提供了关于每种决策者的成本、速度、准确性和所使用的信息(仅公开 , 或公开加上私人信息 , 如信用报告)的信息 。
最后 , 调查问受访者 , 他们是否想继续使用最初分配给他们的决定者(人类或算法) , 或者是否要换一个 。 这种设计使我们能够评估这些因素中的每一个是如何影响参与者对人类和算法的选择的 , 以及它们之间是如何相互影响的 。 结果是明确而有力的——每一个发现都具有强烈的统计学意义 , 只有下面描述的这两个结果是例外 。
在一些常见的决策情况下 , 人们更喜欢由算法而不是人类来进行决策 , 但他们是否喜欢算法是由算法的运作方式决定的 。 总的来说 , 接受调查者有一半以上的场合(52.2%)选择算法来决定一个问题 , 这表明对算法的道德恐慌被夸大了 。 这种偏好与主导媒体报道的算法怀疑论形成了鲜明的对比 。
其次 , 消费者对算法的感受在很大程度上取决于成本、速度和准确性等实际因素 , 但不受隐私问题(例如对敏感数据的访问)的影响 。 基于这些数据 , 我们认为对算法在决策系统中可允许作用的政策选择 , 必须仔细考虑这些消费者偏好 。 如果不这样做 , 就将破坏法律改革的合法性 , 并阻碍其实施 。
在人们的选择中 , 隐私并不是一个有意义的因素 。 在决策者可以访问他们私人信息的情况下 , 参与者对其是人类还是算法漠不关心 。 我们怀疑人们在将私人信息纳入决策时有不同的偏好 。 例如 , 有些人可能更喜欢算法 , 因为代码不会做评价——它使用非情感的逻辑处理信息 , 而不是道德化的逻辑 。 但这可能也是其他人更喜欢透露敏感信息的原因 , 他们可以将公开信息置于更广泛的背景下 , 并且能够以同理心进行分析 。 不过 , 总体而言 , 隐私问题并未造成任何方向的偏好 。
消费者偏好
在选择算法还是人类的问题上 , 什么最重要?简而言之:价格(相对成本和收益)、准确性、风险、速度和默认设置 。 我们的研究设计使我们能够梳理不同的变量 , 看看哪些变量对人们最重要 。
结果表明 , 参与者不是反对算法 , 而是以在很大程度上遵循经典理性行为模型的方式对不同条件做出反应 。 人们更喜欢以更便宜、更准确、更快速的方式做出决定的选项 。 随着所涉及的风险增加 , 参与者倾向于以更高的速度选择人类 。

推荐阅读