AI|规范人工智能:伦理问题在自动驾驶领域最为突出

人工智能技术飞速发展 , 但由此引发的相关问题仍然突出和多发 。9月25日 , 在“2021中关村论坛”上 , 国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(下称《规范》) 。《规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理要求 。
【AI|规范人工智能:伦理问题在自动驾驶领域最为突出】
AI|规范人工智能:伦理问题在自动驾驶领域最为突出
文章图片

无独有偶 。9月28日 , “2021年世界互联网大会”举行闭幕新闻发布会 , 会上提出要坚持科技伦理 , 打击不法行为 , 人工智能发展要确保增进人类福祉 , 有效防范和打击黑客等网络不法行为 , 保护公平竞争和推动创新 , 消除数字鸿沟 , 让数字文明造福全人类 。
有关专家对《财经》E法表示 , 自动驾驶、算法推荐、金融及医疗人工智能等领域 , 是目前人工智能伦理问题的多发领域 。
新规提18项具体伦理要求
《规范》提出 , 旨在将伦理道德融入人工智能全生命周期 , 为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引 。同时 , 增强全社会的人工智能伦理意识与行为自觉 , 积极引导负责任的人工智能研发与应用活动 , 促进人工智能健康发展 。
《规范》指出 , 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范等共18项具体要求 。其中 , 管理规范包含推动敏捷治理、积极实践示范、正确行权用权、加强风险防范、促进包容开放;研发规范包含强化自律意识、提升数据质量、增强安全透明、避免偏见歧视;供应规范包括尊重市场规则、加强质量管控、保障用户权益、强化应急保障;使用规范包含提倡善意使用、避免误用滥用、禁止违规恶用、及时主动反馈、提高使用能力 。
加强风险防范方面 , 需要增强底线思维和风险意识 , 加强人工智能发展的潜在风险研判 , 及时开展系统的风险监测和评估 , 建立有效的风险预警机制 , 提升人工智能伦理风险管控和处置能力;保障用户权益方面 , 在产品与服务中使用人工智能技术应明确告知用户 , 应标识人工智能产品与服务的功能与局限 , 保障用户知情、同意等权利 。为用户选择使用或退出人工智能模式提供简便易懂的解决方案 , 不得为用户平等使用人工智能设置障碍 。

推荐阅读