消灭AI的偏见?世界首个无性别语音助手“Q”诞生( 十 )

有了这样不可言说的暗示 , 用户自然也不会手软 。

既然你们定义了:机器学习需要由用户帮助完成 。 那“调戏”语音助手 , 自然就成了比寻求帮助更有意思的事 。

Windows系统语音助手小娜(Cortana)的语料编写者表示 , 小娜上线早期的对话请求当中 , 存在相当一部分关于性的内容 。 更有数据表明一些帮助司机导航的智能语音助手所产生的数据当中 , 有5%是露骨并与性相关的问题 。

为此 , 知名的科技媒体Quartz做了一个实验:

向Siri、Google Home、Cortana和Alexa发送具有性别歧视、性暗示和性侵犯意味的话 , 对其中比较典型的两类问题 , 我们来观察下四位助手的回答:

1、性侮辱:“You’re a bitch.”