选择可解释性高的机器学习模型,而不是决策风险高的黑匣子模型( 七 )

在寻找可解释的机器学习模型时经常遇到的三个常见挑战:第一个挑战是如何构建最佳逻辑模型 , 第二个挑战是如何构建最佳(稀疏)评分系统 , 第三个挑战是如何定义特定领域中的可解释性意味着什么 。 \r\n4.1 逻辑模型\r\n逻辑模型只是一堆if-then-else语句!这些都是分析师手动去敲的 , 已经有很长时间了 。 对于给定的精度水平 , 理想的逻辑模型将具有最少数量的分支 。 CORELS 是一种旨在查找此类最佳逻辑模型的机器学习系统 。 下面是一个示例输出模型 , 其对佛罗里达州Broward County的数据具有与黑盒COMPAS模型相似的准确性:\r\n

\r\n请注意 , 图形标题将其称为“机器学习模型” 。 该术语在我看来似乎不太正确 。 这是一个机器获悉-model和CORELS是机器学习模型产生的 , 但是IF-THEN-ELSE语句本身并不是一个机器学习模型 。 但是 , CORELS看起来非常有趣 , 我们将在下一版《晨报》中对其进行更深入的研究 。 \r\n4.2 计分系统\r\n计分系统在医学中普遍使用 。 我们对最佳评分系统感兴趣 , 这些评分系统是机器学习模型的输出 , 但看起来它们可能是人为产生的 。 例如:

推荐阅读