admin管理员组

文章数量:1609900

前向传播
对于每一个输入图像I,CNN在Relu操作之后计算filter f 的特征图x,其中x是nxn的矩阵,xij>0。估计目标部分在特征图x的潜在位置是激活最强的神经单元。根据最强的估计位置μ,CNN分配特定的淹没以过滤掉噪声激活。由于f的对应对象部分可能出现在图像的n2个不同位置,我们为f设计了n2个不同的模板{Tμ1,Tμn2}.如图3所示,每一个模板T都是一个nxn的矩阵。当目标部位主要触发了x中的第i个单元时,它描述了特征图x激活的理想分布。我们从n2个中选择模板T作为掩膜。
图4可视化了不同图像的掩膜T,并比较原始和掩膜后的特征图。CNN为不同的图像选择不同的模板。掩膜操作支持tidings反向传播。

后向传播
我们的loss推动filter f代表类别c中的特定对象部分,并对其他类别的图像保持沉默。让X={x|x=f(I)}表示不同训练images经过RELU操作后f的特征图。我们希望特征图x专门在目标部位激活,狗则,特征图保持非激活状态。若I属于Ic,则特征图x适合指定的模板T,若不符合,我们设计一个负面模板T-,是的x符合。请注意,在前向传播中,我们的方法省略了负面模板。所有的特征图,包括其他类的,选择n2个模板作为掩膜。
这样每一个特征图x应该完全适合于n2+1个模板T,属于T={T-,Tμ1,……,Tμn2},
f的loss即为X和T之间的负互信息。-MI(X;T)
模板的先验概率p(T)=…α是恒定的先验可能性。特征图x和模板T之间的适应性测量为条件似然p(x|T).
如图3所示,一个负模板T-=(tij-),其中tij-=−τ <0.τ是一个正数。对于正模板,Tμ=tij+.

学习
1前向传播与传统CNN一样,在反向传播期间,可解释CNN卷积层中的每个filter接收梯度,它的特征图x来自最终任务第k个样本的loss L(yk,yk*) 和filter的loss。然后我们反向传播梯度到低层,并计算梯度特征图。
确定每个filter的目标类别
我们需要为每个filter f分配一个类别c 来接近公式4中的梯度。我们只为f分配激活最多类别的。

低类别间熵
我们可以使用f的特征图x来识别输入图像是否属于类别c,x适合T或者T-,没有很大的不确定性。

低空间熵
给出一个图像I,一个学习好的filter,只能由特征图x的单个区域μ激活,而不是在不同位置重复触发。

2个判定标准:对象部分的可解释性和位置的不稳定性。

本文标签: 笔记论文InterpretableNetworksneural