AI|规范人工智能:伦理问题在自动驾驶领域最为突出( 二 )


上海交通大学网络信息中心副主任姜开达表示 , 人工智能技术以数据、算法为驱动 , 发展速度确实迅猛 , 已经深刻改变了人类的社会生产和生活模式 。但人工智能技术的滥用也冲击法律与社会伦理、涉嫌侵犯个人隐私 。所以 , 既要大力发展人工智能 , 又要高度重视风险和挑战 , 科学处理好发展和安全的关系 。通过出台法律法规、伦理规范以及行业自治 , 降低负面影响 , 促进人工智能的健康和可持续发展 。
事实上 , 针对人工智能伦理问题 , 欧盟、美国此前已颁布类似规范 。
2019年4月8日 , 欧盟委员会发布人工智能伦理准则 。该准则由欧盟人工智能高级别专家组起草 , 列出了“可信赖人工智能”的七个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制 , 以确保人工智能足够安全可靠 。欧盟将“人工智能”定义为“显示智能行为的系统” , 它可以分析环境 , 并行使一定的自主权来执行任务 。
2019年10月 , 美国国防创新委员会发布了一份关于人工智能伦理原则的报告 , 这份报告名为《人工智能原则:国防部人工智能应用伦理的若干建议》 , 提出“负责、公平、可追踪、可靠、可控”五大原则 。
自动驾驶领域问题最突出
人工智能伦理问题讨论最多的领域当属自动驾驶 。2018年3月18日晚 , 在美国亚利桑那州坦佩市(Tempe) , 一位名叫伊莱恩·赫兹伯格(Elaine Herzberg)的行人被一辆正在测试的自动驾驶汽车撞倒 , 因伤势过重而不幸身亡 。肇事的车内当时有一名驾驶人 , 但车辆由一个完全的自驾系统(人工智能)所控制 。此事件成为全球首例自动驾驶汽车撞死人案 , 事发后引发了全球各地公众对人工智能中伦理、道德和法律问题的思考 。屡被提及的问题是:究竟该由谁对这一不幸事件负责 , 是这辆自动驾驶汽车公司的测试部门 , 还是人工智能系统的设计者 , 甚至是机载传感设备的制造商?
9月13日 , 上海交通大学开学第一天 , “人工智能思维与伦理”课程在闵行校区开讲 。该校凯原法学院教授郑戈的授课内容围绕自动驾驶中的伦理问题及与现行法律的衔接展开 。郑戈在“理性的人工智能”专题中提出 , 自动驾驶系统如何尽到注意义务?注意义务是一个重要的法律概念 , 法律上的过失就是指违反注意义务 。自动驾驶达到L3、L4级别后(美国汽车工程师学会(SAE)提出 , 自动驾驶的L3级别为“有条件自动化” , L4级别为“高度自动化”) , 如果发生交通事故 , 该由谁承担违反注意义务的责任?

推荐阅读