AI|规范人工智能:伦理问题在自动驾驶领域最为突出( 三 )
“《道路交通安全法(修订建议稿)》已引入自动驾驶系统开发单位的责任 , 但这个问题其实很复杂 。自动驾驶系统是一个由感知、定位、决策和控制模块组成的复杂系统 , 每个模块都有开发者 。发生事故后 , 5G网络服务供应商有没有责任?高精地图供应商有没有责任?这些单位的法律责任界定问题 , 需要进一步研究 。”郑戈希望通过对这个问题的讲解 , 让学生认识到 , 今后开发自动驾驶系统的各个模块时要尽到注意义务 , 从而使整个系统成为“理性的人工智能” 。
除了自动驾驶领域的问题 , 多位人工智能研究学者向《财经》E法介绍了人工智能伦理问题在其他领域的情况 , 主要可以归纳为:以算法为驱动的精准营销、内容推送领域 , 以及金融领域的智能风控、医疗人工智能等领域 。
在算法驱动的精准营销领域 , 网络经营者通过收集并处理用户网络行为所形成的数据 , 绘制成数据化的人格图像 , 并以此为依据进行精准的广告投放 。这样能够让经营者通过高效投放广告获得更高的营销收益比 。但与此同时 , “大数据杀熟”的问题屡被提及 。
此外 , 用户的性别、年龄、地点、兴趣爱好、浏览行为、个人移动轨迹、手机型号、网络状况等信息 , 都是平台常规收集的内容 。这可能会导致推荐系统过度收集用户个人数据 , 甚至在用户完全不知情的情况下跟踪和识别用户 。
内容推送领域的问题如出一辙 。定向推送以用户的喜好为主要标准 , 确实能为用户精准推送他喜欢的内容 。但这也会出现由于用户频繁点击其所喜欢的内容 , 推荐系统便如同收到指令一般 , 为其源源不断地推送相似的内容 , 会导致限制用户接受其他新领域的信息 , 出现“信息茧房” 。
在金融领域的智能风控领域 , 金融领域数据与用户的个人信用直接相关 , 金融机构在收集用户的海量数据(如年龄、收入、职业、学历、资产等)时 , 既要保证数据的安全性 , 即数据不被泄露、窃取或篡改 , 又要保证数据的准确性 。现有的金融数据收集处理体系尚不完备、过程尚不够透明 , 用户的个人信用数据可能在用户不知晓的情况下发生负面变化;算法的缺陷 , 还容易引发大范围的歧视问题 。
在医疗人工智能领域 , 人工智能在医疗场景下主要被应用于诊断、治疗和研究等领域 。在这个过程中 , 可能出现算法安全和准确性问题 , 损害患者的身体健康;人工智能提供的医疗诊断方案源于算法 , 而算法存在的不可解释性与作为病人基本权利的知情权可能产生冲突 。
推荐阅读
- 人工智能|聚焦车载人工智能计算芯片研究 推进汽车产业高质量发展
- 娱乐性|新华全媒+|探秘冬奥会“黑科技”:当冰壶遇上人工智能
- 市民|大数据、人工智能带来城市新变化 科技赋能深化文明成效
- 科研机构|人工智能点燃哈尔滨高质量发展新引擎
- 可持续性|人工智能将重塑健康管理,业内专家认为可持续性是最大挑战
- 视点·观察|HDMI 2.1a规范或让用户购买HDMI线缆更复杂
- 策源|上海人工智能规上产业规模到2025年达到4000亿元
- 敏捷|上海人工智能“十四五”规划发布:集聚超20个国际顶尖团队
- 最新消息|浙江发布餐饮外卖封签指引 明确“安全锁”使用规范
- 人工智能|佳都科技:已参与全国69个城市的智慧城市建设