CAM: Class Activation Map
本文收集与 CAM 可视化/弱监督学习相关的paper,
一个解释得比较清楚地知乎文章
Learning Deep Features for Discriminative Localization
这篇paper提出的可解释性分类方法需要对模型进行改造,让CNN的最后一层输出做一个global average pooling, 然后一个全连接得到最后的输出。这样的设计下 CNN最后一层的特征就有很明确的意义了
网络输出有以下公式:
其中指类别, 指GAP后的特征层.
Classification map 为
实质上就是将一个位置的特征用对应类别的权重加和.
Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization
由于这篇paper的使用已经太大了,因而有一个Keras官方的code
这篇paper的主要目的是要处理CAM对网络结构有要求这个问题.
定义特征图对分类的重要性 为对应分类值输出对第特征图的梯度的全局和.
定义activation map为 (只关注正向效果的)
数值上可以证明在CAM的模型下,与CAM的计算是一致的.