透视全球AI治理十大事件:站在创新十字路口,人工智能会失控吗?(21)

本质上 , 这款算法仍然会导致人们对他人肖像权、数据隐私的滥用 , 并有可能造成极其严重的后果 。 「如果我们开始以外表来判定人的好坏 , 那么结果将会是灾难性的 。 」多伦多大学心理学教授 Nick Rule 表示 。

性别取向属于人的隐私 , 如果 AI 可以强行根据照片算出性取向 , 既不合法 , 也不人道 。 一旦这种技术推广开来 , 夫妻一方会使用这种技术来调查自己是否被欺骗 , 青少年使用这种算法来识别自己的同龄人 , 而在针对某些特定群体的识别引发的争议则更难以想象 。 「如果我们开始以外表来判定人的好坏 , 那么结果将会是灾难性的 。 」

目前 , 针对人工智能产品的设计与应用 , 除了世界电气电子工程师学会(IEEE)在《人工智能设计的伦理准则》中提出了人权、福祉、问责与透明的伦理标准外 , 亚马逊、微软、谷歌以及苹果等全球百余家科技巨头还创建了非营利性的人工智能合作组织 Partnership on AI , 提出了公平、没有伤害、公开透明以及问责等伦理道德框架 。

另一方面 , 正如一些学者所建议的 , 从应用传播角度来看 , 有必要出台 AI 使用的道德与法律规则 , 并建立起可以监控的人工智能平台 , 对所有使用不道德 AI 产品的用户进行账号管制 , 以此倒逼科技公司调整与校准自己的研发行为 , 进而让 AI 道德演变成民众信任的基础 。

推荐阅读