机器学习可解释性(三)——影响函数(Influence function)推导

影响函数(Influence function)推导

参考 Understanding Black-box Predictions via Influence Functions论文附录。

一、概述

影响函数是一个应用广泛的统计学习概念,在 Residuals and influence in regression 书中也有提及。可以用来衡量样本对模型参数的影响程度,也就是样本的重要性。在参考的论文中被用于提供模型的解释,实现机器学习算法的可解释性。

常规想法中,改变一个样本的的权重往往需要重新定义数据集或损失函数,重新训练模型,需要耗费很长的时间和大量的计算资源。影响函数的提出就是为了解决这个问题,在不改变模型的情况下获得相近的重要性度量结果。

如果不关心推导的同学可以直接看结论。

二、结论

假设有机器学习可解释性(三)——影响函数(Influence function)推导个训练样本机器学习可解释性(三)——影响函数(Influence function)推导,其中机器学习可解释性(三)——影响函数(Influence function)推导,令机器学习可解释性(三)——影响函数(Influence function)推导表示样本机器学习可解释性(三)——影响函数(Influence function)推导在模型参数为机器学习可解释性(三)——影响函数(Influence function)推导下的损失函数,则经验风险为

机器学习可解释性(三)——影响函数(Influence function)推导

根据经验风险最小化(ERM),得到的模型参数为:

机器学习可解释性(三)——影响函数(Influence function)推导

研究改变某个训练样本机器学习可解释性(三)——影响函数(Influence function)推导的权重对机器学习可解释性(三)——影响函数(Influence function)推导的影响。将该样本机器学习可解释性(三)——影响函数(Influence function)推导在训练集中的权重增加机器学习可解释性(三)——影响函数(Influence function)推导,这时根据ERM得到的模型参数变为

机器学习可解释性(三)——影响函数(Influence function)推导

那么,模型参数的变化与训练样本权重变化的关系,被称作影响函数(influence function)

机器学习可解释性(三)——影响函数(Influence function)推导

其中,海森矩阵(Hession Matrix)表达式为:

机器学习可解释性(三)——影响函数(Influence function)推导

公式(4)可以理解为,为一个样本改变权重,用模型参数对这种改变的敏感程度来衡量该样本对整个模型的重要性。

三、推导

接下来介绍推导过程。公式(1-3)的叙述过程在这里不再赘述,主要介绍如何由公式(3)导出公式(4)的结论。

首先,定义变量机器学习可解释性(三)——影响函数(Influence function)推导来衡量参数机器学习可解释性(三)——影响函数(Influence function)推导的变化量,这里需要注意机器学习可解释性(三)——影响函数(Influence function)推导也就是给样本增加权重之前的经验风险最小化得到的参数结果,因此它和机器学习可解释性(三)——影响函数(Influence function)推导无关。于是我们有:

机器学习可解释性(三)——影响函数(Influence function)推导

因为机器学习可解释性(三)——影响函数(Influence function)推导是公式(3)中的最小化结果,因此满足一阶导条件,也就是对机器学习可解释性(三)——影响函数(Influence function)推导的一阶导数为零。

机器学习可解释性(三)——影响函数(Influence function)推导

接下来,以为当机器学习可解释性(三)——影响函数(Influence function)推导趋于0时,机器学习可解释性(三)——影响函数(Influence function)推导趋于机器学习可解释性(三)——影响函数(Influence function)推导,我们将公式(7)的右侧做一阶泰勒展开,也就是将机器学习可解释性(三)——影响函数(Influence function)推导机器学习可解释性(三)——影响函数(Influence function)推导附近展开,得到:

机器学习可解释性(三)——影响函数(Influence function)推导

这里,我们去掉了机器学习可解释性(三)——影响函数(Influence function)推导项,从公式(8)中求解出机器学习可解释性(三)——影响函数(Influence function)推导,得到:

机器学习可解释性(三)——影响函数(Influence function)推导

由于机器学习可解释性(三)——影响函数(Influence function)推导最小化机器学习可解释性(三)——影响函数(Influence function)推导,因此有机器学习可解释性(三)——影响函数(Influence function)推导,将其代入公式(9),并仅保留机器学习可解释性(三)——影响函数(Influence function)推导项,也就是去掉高阶无穷小项。得到公式:

机器学习可解释性(三)——影响函数(Influence function)推导

结合公式(6),最终得到影响函数(Influence function):

机器学习可解释性(三)——影响函数(Influence function)推导

可以看到这里的影响函数的计算并不需要重新训练模型。至此,影响函数的推导介绍完毕。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(1)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2023年3月1日 上午8:52
下一篇 2023年3月1日 上午8:53

相关推荐