关于SKnet的理解问题?
收藏
SEnet是专注于通道的注意力网络,SKnet的注意力机制是对每个分支的卷积核进行添加注意力吗?(比如3分支:conv分别为3,5,7,,其实SKnet是将卷积核为3,5,7生成的特征图进行添加注意力,然后使卷积核为3,5,7各自生成的特征图在最终的特征图中占比不同)可以这样理解吗?
0
收藏
请登录后评论
差不多可以这么理解,我觉得更准确一点说,是对不同感受野的卷积核做注意力机制。
还可以看看这一片博客,写得很好
https://zhuanlan.zhihu.com/p/59690223
写得确实不错啊
ImageNet最后的王者~~
请问是否可以将Sknet中的两个fc换成1x1卷积来实现attention?
还想请问看sknet是通过-->3x3卷积和3x3(d=2)的卷积,-->特征相加sum --> 全局平均池化 --》 fc(size=num_channels//reduction_radio) -->fc_1(size = num_channels*M(分支数)) --> 将fc_1分离成M份,???? 并与不同conv相乘,最终相加.。
对于在实现"将fc_1分离成M份",我是通过将split的api实现分成attention_1和attention_2最终于最初两个卷积的特征图相乘,但有个问题是如何知道attention_1对应的是3x3卷积的特征图还是3x3(d=2) 卷积的特征图??是通过反向传播,进行参数更新是attention_1自动变成和3x3卷积对应的注意力吗??
博客很好,收藏了