选择可解释性高的机器学习模型,而不是决策风险高的黑匣子模型( 八 )

\r\n

\r\n该模型实际上是由RiskSLIM生成的 , RiskSLIM是Risk-Supersparse-Linear-Integer-Models算法 。 \r\n对于CORELS和RiskSLIM模型 , 要记住的关键是 , 尽管它们看起来简单且易于解释 , 但它们给出的结果具有很高的竞争准确性 。 让事情看起来这么简单并不容易!我当然知道我愿意部署哪种模型并解决给定的问题 。 \r\n

\r\n5、可解释模型的重要性\r\n无论您建立模型的最终目的是什么 , 您都会有受众用户 , 都需要向受众用户提供可解释或者可理解、可关联的模型思路 。 数据和机器学习模型的可解释性是在数据科学的 “有用性”中至关重要的方面之一 , 它确保模型与您想要解决的问题保持一致 。 \r\n对于一名数据分析师而言 , CDA数据分析师认为应重视机器学习模型的可解释性主要有以下几个原因:\r\n判别并减轻偏差(Identify and mitigate bias)考虑问题的上下文(Accounting for the context of the problem)改进泛化能力和性能(Improving generalisation and performance)道德和法律原因(Ethical and legal reasons)机器学习模型的可解释性越强 , 人们就越容易理解为什么要做出某些决定或预测 。 其重要性体现在:建模阶段 , 协助开发人员了解模型 , 比较选择模型 , 必要时优化调整模型;在运营阶段向业务方解释模型的内部机制 , 并解释模型的结果 。

推荐阅读