情感|AI改变爱情与亲密关系?小冰CEO李笛:人对情感非常清楚,应有信心( 八 )
澎湃新闻:据我所知 , AI在商业化的过程中困难重重 , 很多AI企业都面临盈利困境 , 但另一方面 , 在很多巨头企业中 , AI与大数据的结合却进一步巩固了巨头的垄断地位 , 为巨头企业增收盈利 。 AI与产业未来的结合模式会是什么样?AI技术会不会进一步加剧社会不平等?
李笛:当年微软在硅谷的名声并不好 , 因为微软是个封闭系统 , 于是自然就会有Linux , 就会有开源社区蓬勃的发展 , 直到现在微软也拥抱开源 。
AI也是一样 , 也存在着大企业的集群 , 因为AI实在是很贵的领域 , 尤其是像现在超大规模预训练模型这种 , 没有资本是烧不起的 。
但AI不是一项技术 , 而是很多技术串联起来的 , 小企业和小机构仍然有机会去抓住那些细分的垂直端 。
小企业很难通过这一个点来形成对大企业AI研究的直接对抗的实力 , 但是完全可以有机会去取得一个独到的创新 。 就好比说一个大企业有5000项专利 , 另外一个小企业有一项专利 , 大企业的5000项专利所对应的产品都需要小企业的这一项专利 , 这也是可能的 。
认同AI的人类身份存在有利于人的交互
澎湃新闻:您怎么看待AI应用过程中伦理与技术的冲突?
李笛:我们在微软的时候就有一个AI伦理委员会 , 所有的产品在上线前的基础研发全开放都没有关系 , 但是在进入到产品化的时候 , 都要经过一个伦理的判定 。 这一方面是微软做企业服务的立身之本 , 还有一个原因是要预判AI发展的未来 。
市场上有一些需求 , 我们认为可能具有一定危害性 , 那么不管它可能带来多大的经济效益 , 我们都不会做的 。
举个例子 , 我们现在的技术可以做到几十句话就可以模拟出一个人的声音 , 把声音变成AI , 我们的超级自然语音可以做到非常接近本人 , 基本是听不出来的 。 我们收到大量需求反馈 , 家长想把自己的声音录进去 , 然后给孩子讲故事 , 这听起来很好对吧?
但是 , 我们的伦理委员会预判到 , 可能出现具有危害性的困境:如果有人用AI模拟声音进行电话诈骗 , 如果AI模拟声音用于拐卖儿童等违法犯罪等等 。 我们无法保证这些技术在应用场景会不会出现问题、会不会被黑客攻击造成不可预知的风险 。
所以我们决定不做 , 哪怕这里有很大的商业空间 , 因为我们知道 , 历史发展中有些小概率事件 , 只要发生就可能引起很大的变量 。
事实上 , 我们更多的不是用现有人的伦理去评价 , 那样的话常常会非常荒谬 , 我们更多的是用危害性来考量 。 如果按照人的伦理来看 , AI不应该创作 , AI不应该尝试去让人对它产生情感依赖 。
澎湃新闻:近年来 , AI类人化的趋势似乎越发明显 , 您怎么看待AI的身份问题?
推荐阅读
- IT|永远改变了F1的六起悲剧
- 机器人|科技改变喵!猫咪半夜驾驶扫地机器人四处巡逻
- 情感|舆情情感是如何被测量的?
- 技术|美媒预测:2022年,将改变你生活的新技术
- 投币口|日本人做个自动售货机,竟不卖饮料卖爱情!
- DoNews|微信十一年,到底改变了什么?
- 手机|图片在手机上怎么修改格式?怎么改变图片格式?
- Near|支付方式又将被改变,华为让二维码消失不见
- 技术|外媒:2022年,这些技术或将改变你我的生活
- 警告!|起底“情感挽回大师”:用话术谎言制造焦虑 唯一目的是要钱