信息|班鲍尔和里希:相比于人类决策,消费者更信任算法决策?

【文/德里克·班鲍尔和迈克尔·里希 译/观察者网 刘思雨】
【信息|班鲍尔和里希:相比于人类决策,消费者更信任算法决策?】想象一下 , 你正在申请银行贷款以购买一辆新车 , 并且你非常需要它 。 在你提供信息后 , 银行给你一个选择:你的申请可以转给贷款部门的员工进行评估 , 也可以由计算机算法来确定你的信用度 。 选择权在你手中 。 你是选择一号门(人类雇员)还是二号门(软件算法)?
传统看法是 , 你一定是疯了才会选择背后是算法的二号门 。 大多数评论家对算法的看法是既恐惧又厌恶 。 他们认为 , 数字计算代码提供的是不准确的判断 , 使我们和我们的孩子沉迷于社交媒体网站 , 审查我们的政治观点 , 并且传播关于新冠病毒疫苗和治疗的错误信息 。
观察家们提出了一系列建议以限制算法在我们生活中的运用 , 从透明度要求到内容审核的限制 , 再到增加平台使用搜索引擎来突出某些信息的法律责任 。 其基本假设是 , 汹涌的民意要求将算法推到台下 , 以古老的人类决策的方式取代它们 。
然而 , 批评者和改革者们 , 基本上没人提出过这个重要的问题:人们对算法决策影响日常生活这一问题究竟抱有什么态度?在即将发表在《亚利桑那州立法律杂志》(Arizona State Law Journal)上的一篇论文中 , 我们就提出了这个问题 。
我们调查了人们对人类决策和算法决策的偏好 , 涵盖了琐碎的小事(赢得一家咖啡店的小礼品券)到重大事项(决定被调查者是否违反了交通法规并应支付高额罚款)——结果是令人惊讶的 。 调研结果表明 , 在关于何时以及如何监管算法的辩论中 , 需要进行更加细致的鉴别;还表明 , 条件反射性地拒绝算法决策是不可取的 。
没有人想要有偏见的算法 , 比如那些增加医疗服务中种族差异的算法 。 在某些情况下 , 比如在刑事审判和判刑的时候 , 应该由人类来进行决策以符合重要的价值观 , 比如公平和程序正当等 。 但人类决策者也经常有偏见 , 他们的决策也不透明、不公平 。 为使用算法设置系统性障碍 , 很可能使人们的处境变得更糟 。

信息|班鲍尔和里希:相比于人类决策,消费者更信任算法决策?
文章图片

在东京的一个IT贸易展上 , 屏幕上展示了人工智能正在实时检测每个人的特征以得出解决方案 。
结果显示 , 人们选择算法的频率远远高于人们在学术界和媒体评论中所得到的心理预期 。 当被问及日常场景时 , 人们大多相当理性——他们在人类法官和算法之间做选择的依据是哪个成本更低、错误更少、决定更快 。
调查显示 , 消费者仍然符合人类的特征:当风险增加时 , 我们更倾向于有一个人类参与其中 , 而且我们更愿意坚持最初给我们的某个选项 。 对调查数据的分析还提出了一些有用的政策干预措施 , 如果政策制定者确实要监管代码的话 , 可以披露算法最重要的特点 , 建立现实的比较基准 , 并谨慎设置默认值 。

推荐阅读