定义|冯福利:以因果推理解决算法公平性问题

中新经纬3月24日电 (王玉玲)近日 , 由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行 。 中国科学技术大学教授冯福利提出因果推理具备精准推断的能力 , 在推荐公平或算法公平领域非常有前景 。
冯福利指出 , 有偏差不等于不公平 , 更重要的是如何定义偏差 。 目前的主要问题在于公平的定义非常宽泛 , 是一个“大水漫灌”型的概念 。 但是我们觉得在偏差和公平之间 , 更应该改进的是如何去定义偏差 。 在统计学上来说 , 偏差等于预期目标和实际结果之间的差值 , 如果我们提前定义好公平和偏差 , 最后推荐的结果和定义好的公平之间有偏差 , 那它就反映公平性 。
从因果角度能对公平给出更精确的定义 , 现在算法推荐领域急需去研究的 , 用因果语言来表达的话 , 是路径特定公平性 。
比如职业推荐场景的性别公平 , “如果我给两个背景相似的男性和女性 , 推荐CEO职位 , 男女比例不一样 , 可能这是一个不公平的现象 。 但是如果推荐搬砖工岗位 , 我给男生推多一点 , 因为他有力量优势 , 那就是一个合理推荐 。 ”从因果角度来说 , 如果性别直接影响推荐结果 , 那是不公平的;如果性别影响劳动能力 , 进而影响推荐结果 。 那并不一定意味着不公平 。 ”冯福利认为 , 公平更适宜定义成消除直接路径上的影响 , 从公平颗粒度或者公平定义的角度 , 所以 , 需要梳理敏感信息的直接影响和间接影响 , 然后弄明白要消除的到底是哪方面影响 。
其次 , 冯福利认为个性化与公平性并不是严格的取舍/权衡的关系 。 他指出 , 并不需要对所有用户都解决兴趣放大的问题 , 有些用户就喜欢待在熟悉的兴趣里 , 对于此类用户 , 强行对抗他的个性 , 对他来说并不是有效或者精准的推荐 。
我们需要通过更精准的因果推断 , 做个性化的调整 。 对于有些用户 , 我们要消除兴趣放大问题 , 对于有些用户 , 我们应该允许放大效应存在 。 总结来看 , 如果我们能够做到更精准的因果推断 , 那我们是能够做到更好的权衡和取舍 。
最后 , 冯福利认为 , 因果推理的技术也能够解决公平性隐蔽性的问题 。 “我们如果能够量化出是否追求公平带来的因果效应 , 我们就能很容易做出决策说是否需要公平 。 ”冯福利说道 。 (中新经纬APP)
【定义|冯福利:以因果推理解决算法公平性问题】中新经纬版权所有 , 未经书面授权 , 任何单位及个人不得转载、摘编或以其它方式使用 。

    推荐阅读