算法|曾毅:企业算法伦理与应用要做到知行合一

中新经纬12月21日电 (张燕征)近日 , 清华大学社会科学学院社会学系、中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场、算法设计与企业社会责任”研讨会 。 中国科学院自动化研究所研究员曾毅在研讨会上指出 , 企业算法伦理与应用要做到“知行合一” 。
“人工智能是一个看似智能的信息处理工具 , 但并不能像人类之间一样默认有一定的基线水平信任 , 人类的信任来源于长期的文化沉淀与关系网络 。 ”曾毅表示 , 人们对于人工智能系统的起点应是不信任 , 随着交互增多 , 人们开始逐渐对人工智能系统与服务产生一定的、有条件的信任 。
“企业算法伦理与应用要做到知行合一 。 ”曾毅指出 , 在人工智能伦理和治理方面 , 一些企业设有伦理研究团队 , 并产生一些关于伦理研究的结果 , 但伦理研究结果并没有真正用来指导企业研发人工智能产品与服务 , 甚至产品团队与伦理团队存在较大鸿沟 , 如果是这样的话 , 长远来看企业很难赢得公众、政府、学术界的信任 。
伦理原则的技术落地挑战重重 , 需要企业和学术界真正将伦理关切进行深度技术实践 。 曾毅举例说 , 《中华人民共和国个人信息保护法》、人工智能治理原则都谈到了平台应该给用户授权 , 比如用户可要求平台删除用户的数据 , 这件事看起来简单 , 但它在技术落地上几乎不具备可行性 。
“数据库里可以实时删掉用户的数据 , 但只要是用人工智能算法的企业都知道 , 应用数据方法绝大多数不是放在数据库里面调用的 , 而是通过人工智能和机器学习模型学习 , 把用户特征学习到了以后 , 以参数的形式内化于人工智能模型当中 。 如果你采用类似于深度学习的神经网络模型 , 是很难把单个用户数据的影响从模型当中删除的 。 ”曾毅称 。
人工智能对于社会长远的影响也不可忽视 。 曾毅表示 , 人类的下一代是社会当中最脆弱的一代 , 因为当受到伤害的时候 , 他们没有成年人的表达欲望和能力 。 另外 , 即使他们受到人工智能产品与服务的伤害时 , 他们可能也不自知 。 这就使得他们更容易受伤害 。
因此 , 曾毅表示 , 目前人工智能伦理原则中 , 应该明确告知用户现在交互的对象是人工智能 , 而不是人类 , 未来也不应该混淆人工智能与人类之间的界限 。
“如果真正能够实现人类水平的人工智能 , 它必然是有真正的理解能力 。 假如它变成社会准成员 , 我们该怎么处理人工智能与社会准成员之间的关系?也许我们的文化现在还很难接受人工智能成为社会准成员 , 但是一旦向这个方向迈进 , 实现通用人工智能或涌现出超级智能 , 对现在的社会来说 , 是完全没有任何准备的 , 其存在的长远伦理问题未来三五十年时间未见得有解 。 ”曾毅称 。 (中新经纬APP)

推荐阅读