论文标题:Learning Important Features Through Propagating Activation Differences
论文作者:Avanti Shrikumar, Peyton Greenside, Anshul Kundaje
论文发表时间及来源:Oct 2019,ICML
论文链接:http://proceedings.mlr.press/v70/shrikumar17a/shrikumar17a.pdf
DeepLIFT方法
1. DeepLIFT理论
DeepLIFT解释了目标输入、目标输出与“参考(reference)”输入、“参考”输出间的差异。“参考”输入是人为选择的中性的输入。
用
2. 乘数(Multiplier)与链式法则
乘数与偏导数类似:偏导数
这里
3. 定义“参考”
MNIST任务中,使用全黑图片作为“参考”。
CIFAR10任务中,使用原始图像的模糊版本能突出目标输入的轮廓,而全黑图片作为参考时产生了一些难以解释的像素。
DNA序列分类任务中,以ATGC的期望频率作为“参考”。即目标输入是四维的one-hot编码,“参考”输入是相同维度的ATGC期望频率。这里还有一种方法没有看懂,见Appendix J。
4. 区分正、负贡献
当应用RevealCancel规则时,区分正、负贡献非常重要。
5. 分配贡献分数的规则
线性规则
用于Dense层,卷积层,不可用于非线性层。定义线性函数
公式有点复杂,举例说明。“参考”输入
Rescale规则
用于非线性层,如ReLU,tanh或sigmoid等。由于非线性函数
当
RevealCancel规则
这里说明为何
同样地,梯度,输入*梯度方法也会赋予其中一个特征0的贡献分数,这忽略了特征间的相互依赖性。
用这种方法计算出
文章出处登录后可见!