既要人工智能高效发展,还要符合伦理,该怎么做?( 五 )

更进一步,作为对技术应用的「软法」规制,可以通过科技伦理来对科技行业的狭隘的技术向度和利益局限进行纠偏和矫正。所以需要通过预警性思考、广泛的社会参与和多学科评估来充分讨论可能存在的风险和危害,制定出切实可行的指导方针和伦理准则来引导、规范人工智能研发应用,以更好地应对人工智能应用可能引发的社会治理危机。

其三,算法透明与责任方面,应根据人工智能技术特征和复杂性追求有意义的透明。具体而言,技术透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。考虑到AI的技术特征,理解AI系统整体是异常困难的,对理解AI作出的某个特定决策也收效甚微。所以,对于现代AI系统,通过解释某个结果如何得出而实现透明将面临巨大的技术挑战,也会极大限制AI的应用;相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。例如,考虑到人工智能的技术特征,GDPR并没有要求对特定自动化决策进行解释,而仅要求提供关于内在逻辑的有意义的信息,并解释自动化决策的重要性和预想的后果。在具体落地层面,根据欧盟议会的《算法责任与透明治理框架》,对于政府和公共部门使用的算法系统,可考虑建立「算法影响评估」(AIA)机制;但不宜针对商业领域的所有算法系统应用都建立算法影响评估机制,因为这将给企业带来不成比例的财务和管理负担,相反可考虑建立分级监管机制,即对于具有与政府和公共部门的算法系统应用相似的重大影响的商业算法系统,可以考虑采取AIA机制,而对于其他商业算法系统,则采取事后追究法律责任的机制。

推荐阅读