选择可解释性高的机器学习模型,而不是决策风险高的黑匣子模型( 六 )

\r\n由于相信复杂是好的 , 这也是一个普遍的神话 , 即如果您想要良好的表现 , 就必须牺牲可解释性:\r\n

\r\n在准确性和可解释性之间始终需要权衡的信念 , 导致许多研究人员放弃了试图产生可解释模型的尝试 。 现在 , 研究人员已经接受了深度学习方面的培训 , 而没有可解释的机器学习方面的培训 , 这使问题更加复杂 。 \r\n根据罗生门集的说法 , 如果我们尝试 , 我们往往容易能够找到一个解释模型:鉴于数据允许一大组相当准确的预测模型的存在 , 它往往包含至少一个模型 , 这是可解释的 。 \r\n这给我提出了一种有趣的方法 , 首先可以在没有任何特征工程的情况下尝试一种相对较快的尝试深度学习方法的方法 。 如果产生合理的结果 , 我们知道数据允许存在相当准确的预测模型 , 并且我们可以花时间尝试寻找一种可以解释的东西 。 \r\n对于没有混淆 , 完整和干净的数据 , 使用黑匣子式机器学习方法比使用一般模型解决问题更容易 。 但是 , 对于高风险的决策 , 分析师的时间和模型运行的时间比具有缺陷或过于复杂的模型的成本要低 。 \r\n4、创建可解释的模型\r\n

推荐阅读