选择可解释性高的机器学习模型,而不是决策风险高的黑匣子模型( 四 )

\r\n尽管缺乏很明确的定义 , 但是越来越多的文献提出了可能是可解释的算法 。 似乎我们可以得出以下结论:要么是(1)可解释性的定义是通用的 , 但没有人愿意打扰用书面形式表达它 , 或者(2)“可解释性”的定义不清楚 , 因此理论上关于机器学习的模型的可解释性是科学的 。 有关文献的研究表明 , 后者是符合实际情况的 。 关于模型可解释性的文献中提出的目标和方法的多样性表明 , 可解释性不是一个单一的概念 , 而是一组需要分别讨论的不同概念 。 \r\n

\r\n2、黑匣子模型的解释并不能真正解释\r\n对于为黑匣子模型的输出提供解释有很多研究 。 鲁丁认为这种方法从根本上是有缺陷的 。 她的论点的根源是观察到 , 即席解释只是对黑匣子模型所做的事情的“猜测”(我的措词选择):\r\n解释一定是错误的 。 他们不能对原始模型具有完美的忠诚度 。 如果解释完全忠实于原始模型的计算结果 , 则该解释将等于原始模型 , 并且首先不需要解释的就是原始模型 。 \r\n甚至“解释”一词也是有问题的 , 因为我们并没有真正描述原始模型的实际作用 。 COMPAS(替代性制裁的更正罪犯管理概况)的例子将这种区别变为现实 。 由ProPublica创建的COMPAS线性解释模型(取决于种族)被用来指责COMPAS(这是一个黑盒子)取决于种族 。 但是我们不知道COMPAS是否具有种族特征(尽管它很可能具有相关变量) 。

推荐阅读