问题|会议︱人工智能、人类增强与当代哲学( 二 )


来自南京大学哲学系的司徒安(Andrea Strollo)副教授在报告《人类增强与人格同一性》(Human Enhancement and Personal Identity)讨论了认知的增强将会带来的身份认同难题以及对躯体理论(somatic theory)可能产生的障碍 , 即人类增强后会面临“几个思考者”的难题 。 西安交通大学哲学系的丁晓军副教授的《道德增强哪家强:生物医学、人工智能抑或人类导师?》从实验哲学的观点出发对三种主要的道德增强途径进行分析 , 尝试回答哪些因素会影响人们对道德增强的接受度 , 以及人们对不同途径的接受度的具体差异及其产生原因等问题 。
南京大学哲学系博士生赵豆则针对利用生物医学手段达到道德增强这一途径进行了批判与反思 , 在报告《道德生物增强真的可能吗?——基于哲学视角的审视》中 , 她指出目前道德生物增强还不是真正意义上的“道德增强” 。 来自湖南师范大学哲学系的王淑庆博士的报告《能动性问题与能动性增强——行动哲学视角下的脑机接口技术》对脑机接口(BCI)这一具有广泛应用前景的新兴技术的哲学反思 , 指出从行动哲学的角度看 , BCI-媒介行为似乎可以作为有意行动 , 但已有的行动理论特别是行动因果论不能很好地解释BCI-媒介行为的能动性问题 。 但是当只把BCI看作一种能动性增强技术的时候 , 则能够更好地理解由BCI引发的伦理和法律问题 。
在“人工智能哲学”方面 , 报告人围绕人工智能对伦理-社会的影响以及在本体论、认识论等问题进行了报告与讨论 。
人工智能发展的伦理是人工智能发展中面临的一个重要话题 。 中国社会科学院哲学所段伟文教授做了题为《算法时代的伦理政治审视与思辨性应对》的报告 , 指出在数据智能与算法决策被广泛应用的背景下 , 不论是算法的运作条件 , 还是人类与算法的关系都关涉复杂的伦理政治配置 。 因此 , 算法伦理(包括伦理设计)研究应将算法纳入社会感知技术谱系 , 从而揭示潜藏于算法及其技术解决主义逻辑背后的伦理政治暗线 , 并剖析由此带来的社会感知与行动方式的变化和应予扭转的问题 。 上海交通大学科技史与科学文化研究院的闫宏秀教授在报告《数据赋能的伦理基质》中提出 , 在数据智能化与伦理内在化的过程中 , 对更加有效的伦理方式探寻不仅是对数据赋能所引发的伦理问题反思 , 更应从伦理作为基础设施的视角 , 基于技术哲学的调节理论 , 引入伦理与技术之间双向反馈机制 , 在人与技术共融的情境中 , 构建数据赋能的伦理基质 。 而对于如何进行人工智能伦理教育这一问题 , 浙江大学马克思主义学院的潘恩荣教授在其报告《面向未来工程教育的人工智能伦理谱系》中表明面向未来人工智能时代的工程教育需要建立一种人工智能伦理谱系 , 以此阐明人工智能伦理与工程伦理、传统伦理之间的联系和区别 , 从而为开展人工智能伦理教育提供支持 。

推荐阅读