情感|AI改变爱情与亲密关系?小冰CEO李笛:人对情感非常清楚,应有信心( 四 )


第二点 , 通过线上的数据训练AI后不能直接在线上应用 , 这是有血的教训的:美国小冰Tay在线上交互过程中 , 24个小时就被教成了一个种族主义者 , 这是一个漏洞 , 也是一种训练方法 。
第三种方法是多模态 。 比如给人工智能一发已张手臂在打点滴的照片 , 一般情况下AI只能识别这是一只手臂 , 但我们做了很多工作 , 让小冰能询问:病得怎么样?这个重点并不在于是不是模拟的足够像人 , 重点在于当交互达到这个语意深度时 , 接下来用户的回复可能直接会变成标注数据 , 这个训练成果比单一训练效果好很多 。
澎湃新闻:小冰是否能理解自己发言的内容?在与小冰交互过程中遇到引发不适的回复 , 会如何进行修正呢?
李笛:2017年之前 , 包括小冰在内的整个人工智能行业 , 对话系统都是基于检索模型的 , 可以理解成大量预训练数据 , 配合检索模型和知识图谱 。 但我们发现 , 检索模型最大的问题在于可拓展性 。 因为资料数据都是提前准备好的 , 就要看语料库有多大 。 2017年我们开始使用生成模型 , 生成模型所完成的对话文本、语音 , 是根据当前的上下文生成的 , 这句话此前没有存在过 。 我们在一些国家完全使用生成模型进行测试 , 在中国和日本使用生成模型和检索模型混合来测试 。
对于回复的内容 , 适合这个人的正确回答 , 对另外的人可能就是不正确的 。 我们最开始给小冰灌输关于失恋的反馈时 , 互联网上得到的大量数据除了安慰 , 就是嘲笑 , 而且嘲笑的比例是很高的 , 如果小冰做出类似的回复 , 让用户感到不适 , 结果就是用户表达了不满 , 或者他离开了交互 , 无论哪一种 , 系统都会得到一个反馈 , 这是不对的 , 这种回复会被降权 , 更多的人就不会遇到这个问题了 。
这是一个必须要学习的过程 , 与此同时我们的技术也在不断提高 。 让小冰成为所有人的助理是可能的 , 因为助理只需要干活 , 但如果要想让小冰或者任何一个AI Being可以成为所有人的好朋友 , 这是不可能的 , 因为一些人喜欢的 , 就是另外一些人不喜欢的 , 多样的需求包含互斥性的 。
所以 , 正确的做法应当是高度定制化的、不同的AI Beings环绕着人 , 有可能会降低不适的情况发生 。 如果这世界上只有一个小冰 , 我们需要在用户身上把所有的可能性都试过 , 但如果有很多不同的AI Beings , 甚至是用户去自己定义的 , 那时有很多可能就已经排除了 , 他贴近用户的可能性就会高一些 。
未来人和AI会像人和宠物的关系
澎湃新闻:小冰上线的虚拟人类产品似乎也引发了很多争议 , 为什么人会需要AI的虚拟朋友?

推荐阅读