任何机器学习技术的工作原理本质上比手工编码的系统更不透明 , 即使对计算机科学家来说也是如此 。 这并不是说 , 所有未来的人工智能技术都将同样不可知 。 但就其性质而言 , 深度学习是一个特别黑暗的黑盒子 。
一旦面对黑盒子 , 就产生了人对系统的信任问题 。 而温伯格恰恰没有深入处理人对人工智能的信任 。 比如 , 即便“深度患者”的诊断比人类医生更准确 , 但要是它无法解释自己给出的判断 , 医生和患者会对它表示信任吗?
【数字化|相信人,还是相信机器 | 重新思考数字化之九】人类的信任往往基于我们对其他人如何思考的理解 , 以及对这些思考可靠性的经验了解 。 这有助于创造一种心理安全感 。 而AI对于大多数人来说仍然是相当新颖和陌生的 。 它使用复杂的分析系统进行决策 , 以识别潜在的隐藏模式和来自大量数据的微弱信号 。
即使可以在技术上解释 , AI的决策过程对于大多数人来说通常都是难以理解的 。 更何况目前的人工智能发展,是在朝着不可理解的方向加速前进 。 同自己不明白的事情互动会引起焦虑 , 并使我们感觉我们失去了控制 。
芯片制造商英伟达推出的自动驾驶汽车 , 看上去与其他自动驾驶汽车没什么不同 。
但它实际上迥异于谷歌、特斯拉或通用汽车所展示的任何东西 , 而是显示了人工智能的崛起 。 英伟达的汽车并不遵循工程师或程序员提供的任何一条指令 。 相反 , 它完全依靠一种算法 , 这种算法通过观察人类的行为而学会了自己驾驶 。
让一辆车以这种方式行驶是一项令人印象深刻的壮举 。 但它也有点令人不安 , 因为并不完全清楚汽车的决定是如何做出的 。 来自车辆传感器的信息直接进入一个巨大的人工神经元网络 , 该网络处理数据 , 然后提供操作方向盘、刹车和其他系统所需的命令 。 其结果似乎与你所期望的人类司机的反应一致 。
但是 , 如果有一天它做出一些出乎意料的事情——比如撞上了一棵树 , 或者在绿灯前停止不动呢?按照现在的情况 , 可能很难找出它这样做的原因 。 该系统是如此复杂 , 甚至设计它的工程师也难以分离出任何单一行为的原因 。 而且你也不能向它提问:没有办法来设计一个系统 , 使它总是能够解释为什么它做那些事 。
除非我们找到方法 , 让深度学习等技术对其创造者更容易理解 , 对用户更负责任 。 否则 , 将很难预测何时可能出现失败——而失败是不可避免的 。
麻省理工学院研究机器学习应用的教授托米·贾科拉说:“这是一个已经凸显意义的问题 , 而且在未来它将变得更有意义 。 无论是投资决策、医疗决策 , 还是可能的军事决策 , 你都不希望仅仅依靠‘黑盒子’方法 。 ”
推荐阅读
- 数字化|零售数字化转型显效 兴业银行手机银行接连获奖
- 研究院|传统行业搭上数字化快车,施工现场变“智造工厂”
- 山西|移动5G+智慧成果亮相山西数字化转型大会
- 猎豹|数字化助力实体消费 机器人让商场“热”起来
- Pro|价格相差1000块钱 买小米12还是小米12 Pro?很多人选错了
- 数字化|商场数字化有本“生意经”
- 数字化|70%规模以上制造业企业到2025年将实现数字化、网络化
- IT|保费涨80% 专车司机还是爱特斯拉
- 限制|多国拒绝禁用“杀手机器人”,潘多拉魔盒还是被打开了?
- 数字货币|是继续欣欣向荣还是泡沫破灭? 专家给出加密货币2022年五大预测