数据|大咖谈AI伦理,专家:要便利还是隐私,决策权应交给用户

人工智能技术的发展 , 带来了安全、隐私、伦理方面的新挑战 , 如何解决这些问题?行业大咖们怎么看? 5月27日 , 在中国国际大数据产业博览会的人工智能高端对话论坛上 , 行业嘉宾就这些问题进行了探讨 。
【数据|大咖谈AI伦理,专家:要便利还是隐私,决策权应交给用户】清华大学国强教授聂再清认为 , 一定要通过技术手段来解决安全问题 , 例如 , 用技术应对电信诈骗 。 另外 , 在设计一个系统的时候 , 应该考虑到安全可控 , 权限要可以降级 , 让它在每个时刻都能保证安全 。 在责任归属方面 , 聂再清表示 , 每一个智能系统后面都是人在设计 , 要让人对系统安全负责 。
海信集团高级副总裁陈维强指出 , 隐私保护对人工智能发展来讲是一个非常大的障碍 。 首先要从技术上保护隐私 , 例如 , 在传感器层面 , 尽量用非侵入式的传感器 。 此外 , 不仅是企业 , 也包括公安和政府这样的公权力 , 使用个人数据应当受到法律制约 。 他强调“我的数据我做主” , 企业不能把用户数据当作自己的资产 。
对于隐私问题 , 商汤科技副总裁张果琲认为 , 技术都是有两面性的 , 为了获取便利 , 有时候就牺牲掉了隐私 , 如果要很强地保护隐私 , 可能技术应用就会非常狭窄 , 很多技术没有办法推广 。 解决这个问题的一个很重要的途径是加强人工智能的科普教育 , 因为很多时候恐惧来自未知 。 “当我们更加了解这个技术的时候 , 我们首先知道这个技术在做什么 , 我应该怎么样来保护我自己的数据和个人隐私 。 因为我了解它 , 所以不害怕它 , 我可以拥抱和接受它 , 让它给我带来更多便利 。 ”
聂再清同样认为 , 在隐私问题上 , 确实涉及便利和隐私的权衡 。 他表示 , 面对这个问题时 , 决策权应该交给用户 , 用户决策到底要不要用这个便利 。 但是 , 就算用户决定要用这个便利的时候 , 我们也希望算法做到“可用不可见” 。 算法可以用这些数据 , 但是数据不能够被人看见 。 并且 , 要用在用户统一功能上 , 而不要用在别的功能上 。
国双科技创始人祁国晟提出了不同的看法 。 他认为 , 在人工智能伦理领域 , 隐私的问题还是其次 , 因为隐私问题关键在于拥有系统的人要自律 , 这通过相应法律法规去规范 , 是完全可以解决的 。 “偏见”才是人工智能最难解决的伦理问题 。
祁国晟表示 , 人工智能一定会引起偏见 , 尤其是新一代人工智能主要以深度学习 , 是基于训练样本的 , 基于训练样本的结果就是谁贡献样本谁获益 , 不贡献样本的沉默的大多数就倒霉 。 这个道理就跟我们有时候说民主制度不够好是一样的 , 不同意的人一定会发言 , 同意的人就不爱发言 。 一部分人贡献了机器学习的样本 , 最后用于所有人 , 这就产生了技术偏见 。 “这是工程伦理学的范畴 , 是所有做人工智能的人必须要放在心里的一个准绳 。 ”祁国晟说 。
南都见习采访人员 李娅宁

    推荐阅读