选择可解释性高的机器学习模型,而不是决策风险高的黑匣子模型( 九 )

\r\n6、针对特领域的可解释性进行设计\r\n即使对于机器学习的经典领域 , 也需要构建潜在的数据表示形式 , 也可能存在与黑匣子模型一样准确的可解释模型 。 \r\n关键是要在模型设计本身中考虑可解释性 。 例如 , 如果数据分析师在哪里向您解释为什么以他们的方式对图像进行分类 , 他们可能会指出图像在推理过程中很重要的不同部分(有点像显着性) , 并尝试说明原因 。 Chen , Li等人将这个想法引入网络设计 。 建立一个模型 , 该模型在训练过程中学习用作班级原型的图像部分 , 然后在测试过程中找到与所学原型相似的部分测试图像 。 \r\n这些解释是模型的实际计算 , 而并非事后解释 。 该网络之所以称为“看起来像这样” , 是因为其推理过程会考虑图像的“这个”部分是否看起来像“那个”原型 。 \r\n

\r\n

\r\n7、潜在的政策更改\r\n本文的第4节讨论了潜在的政策更改 , 以鼓励人们采用可解释的模型(在高风险情况下特别需要) 。 \r\n让我们考虑一个可能存在的要求 , 即对于某些高风险的决策 , 当存在具有相同性能水平的可解释模型时 , 不应选择黑匣子机器学习模型 。

推荐阅读