读懂AI时代:未来之路 无法抵抗的进化|财经书评( 四 )

以上两种结果的拥趸称为“反乌托邦派”,显然具有这些忧虑的人为数不少。相对应来说,“乌托邦派”的看法显然更为乐观。

第三种:人类统治超级智能。人类在它还没有强大到超越自己之前,通过植入目标对更高级的生命形式加以统治,人类控制着超级智能,用它来创造远远超出人类想象的技术和财富。

还有更为现实的第四种:人类限制超级智能的发展。人类会给人工智能守门人的任务,把“阻止超级智能发展”这个目标设置在它的内核里。比如,Facebook在发现他们开发聊天机器人AI试图创造自己独有的、更高效的语言,而人类很难理解这种语言时,果断地关闭了聊天机器人AI。

后两种结果看起来更安全,但换到另外一个角度来看,如果人类创造出了强大的人工智能,并成功了控制了他们,会不会产生又一种奴役。比如曾经风靡一时的美剧《西部世界》,在游戏里面里面人类游客可以打破所有法律和道德伦理的束缚任意折磨甚至杀害与人类外表一模一样的人工智能。

不过,霍金和埃隆-马斯克都提示了人工智能的危险,霍金在演讲中说:“除非我们学会如何做好准备并避开潜在风险,否则人工智能可能是人类文明史上最糟糕的事件。它带来了危险,比如强大的自动化武器或者少数人压迫多数人的新方法。它可能会给我们的经济带来巨大的破坏。”

推荐阅读