新京报:人工智能被越来越多地运用于决策制定 , 比如面试评估、风险评估、信贷预测等 , 人们普遍认为没有意识、情感的AI会做出更公平中立的决策 , 但最近有研究显示存在AI偏见 , 你怎么看?
张宏江:AI偏见是目前做AI的服务和产品工程领域的人都在花时间留意的 , “偏见”这个词在英文里面是bias , 这是一个中性词 , 不是负面的词 , 偏见是长大过程中形成的概念 。 如果你把一个孩子放在可控的环境里面长大 , 他就只知道的环境里面他被教育的事情 , 比如你从来没有看过黑人 , 你看黑人会问出一些“他是不是人”这种非常蠢的问题 , 比如你就在北京长大 , 从来没有听别人说过外地的方言 , 你认为这个世界说的话就应该是普通话 , 那你听到方言的时候 , 就会觉得很奇怪 , 这也是一种偏见 。
所以 , 偏见这件事情跟你有没有接触过 , 你的形成过程 , 你的知识是否完备有关 。 人工智能的偏见很大程度上是因为人工智能的训练本身靠数据来做 , 有些数据没有 , 有些数据太强都可能形成偏见 。
新京报:所以 , 还是数据不够全面 , 未来能够解决这个问题吗?
张宏江:当然 , 原来人脸识别对于女性不友好 , 识别率不高或者是准确率不高 , 是因为它的数据不够多 , 多放点女性的数据进去 , 在训练中再加以调整 , 就可以解决 。
新京报:你也提到AI是建立在数据的基础上 , 近两年 , 数据保护受到越来越多的重视 , 不管是个人隐私还是企业数据上 , 如何平衡数据保护和技术发展的关系?
张宏江:这块也是智源研究院一开始就非常注意的一个方面 。 我们在2018年年底成立以后到2019年5月 , 就发布了一个《人工智能北京共识》 , 谈了15个原则 , 很重要一条就是关于数据和隐私保护 。 随着人工智能的普及 , 就像移动互联网的普及一样 , 人工智能的普及一定会把数据保护和隐私保护带到日常当中来 , 我们所有的事情都一定要在保护和发展中去达成一种共识或妥协 。
这种共识就是我们一定要保护个人的隐私 , 当然并不意味着我们人工智能就不能用个人的数据 , 但是一定要在当事人知情的情况下 , 用完以后一定不要侵犯这个人的隐私 , 这都是基本的原则 。 所以 , 在立法这个层面当中 , 也经过了多年的考虑 , 我们有研究机构专门研究隐私、大数据、AI之间的政策和伦理这一系列的内容 。 我相信经过大家的研究 , 会达到都能够接受的共识 。 然后能够在伦理、法规方面有所建树 。
新京报:这其中有一个问题是 , 现在很多数据存在企业手里 , 我们怎么去管控这个企业去维护个人的利益?
张宏江:完全可以用法律法规手段做这件事 , 除此之外 , 智源在大力推广的就是在企业中建立共识 , 让这种共识变成企业的规则、企业的规范 。 这种规范包括把我刚才说的这些原则嵌入到服务设计中去 , 不可能有任何一个机构能够控制所有企业的行为或者个人的行为 , 最终一定是法规法律来规范个人和企业的行为 , 而不是说简单的行政手段 , 因为行政手段也跟不上技术的发展 。
推荐阅读
- 技术|“2”类医械有重大进展:神经介入产品井喷、基因测序弯道超车
- 选型|数据架构选型必读:2021上半年数据库产品技术解析
- 技术|使用云原生应用和开源技术的创新攻略
- 技术|聚光科技旗下临床质谱仪获批医疗器械注册证
- Apple|苹果高管解读AirPods 3代技术细节 暗示蓝牙带宽可能成为瓶颈
- MateBook|深度解析:华为MateBook X Pro 2022的七大独家创新技术
- AirPods|苹果谈论AirPods 3:最大榨取蓝牙技术,希望获得“更多带宽”
- 人物|印度人接管硅谷的背后:技术军团整体作战
- Intel|Intel谈DDR5内存价格贵、缺货问题:新技术升级在所难免
- Tesla|特斯拉新款Model S电池体积小能量密度高 外媒揭秘三大关键技术