耶鲁大学测试人类和AI一起工作 结果令人意外!( 三 )

结果证明,这个会作忏悔的笨拙机器人通过改善人类之间的沟通交流,帮助这些小组表现得更好。他们变得更放松,更健谈,安慰那些容易犯错的小组成员。与机器人只做平淡陈述的对照相比,有忏悔机器人的实验组成员之间合作得更好。

在另一项虚拟实验中,研究人员将4000名受试者分成20人左右的小组,并在小组内为每个人分配“朋友”;彼此之间的朋友关系形成了一个社交网络。然后,这些小组被分配了一项任务:每个人必须从三种颜色中选择一种,但是每个人所选择的颜色不能与被分配朋友所选色相同。在受试者不知情的情况下,研究人员为一些小组分配了一些被设定为偶尔会出错的机器人。实验显示,与这些机器人直接相关的人变得更加灵活,并且会避免陷入一个只适用于特定个人,但不适用于整个团队的解决方案。更重要的是,由此产生的灵活性会在整个小组中传播开来,甚至会影响到没有直接与机器进行交互的人。因此,分配有容易出错的智能程序的实验组始终优于那些没有出错智能程序的实验组,在表明,机器人有助于人类相互帮助。

这两项研究都表明,在所谓的“混合系统”中,也就是人与机器进行社交互动的系统中,合适的人工智能可以改善人与人之间的关系。其他研究结果也证实了这一点。例如人们在网上对他人发出谩骂,后政治学家凯文·芒格(Kevin Munger)指示特定种类的机器人进行干预。他指出,在某些情况下,机器人只是提醒谩骂者他们的目标是一个感情可能会受到伤害的人时,就能使谩骂者在一个多月的时间内不再攻击他人。

推荐阅读