首页 炼丹房 帖子详情
关于SKnet的理解问题?
收藏
快速回复
炼丹房 问答新手上路 1756 6
关于SKnet的理解问题?
收藏
快速回复
炼丹房 问答新手上路 1756 6

SEnet是专注于通道的注意力网络,SKnet的注意力机制是对每个分支的卷积核进行添加注意力吗?(比如3分支:conv分别为3,5,7,,其实SKnet是将卷积核为3,5,7生成的特征图进行添加注意力,然后使卷积核为3,5,7各自生成的特征图在最终的特征图中占比不同)可以这样理解吗?

0
收藏
回复
全部评论(6)
时间顺序
笨笨
#2 回复于2020-09

差不多可以这么理解,我觉得更准确一点说,是对不同感受野的卷积核做注意力机制。

0
回复
笨笨
#3 回复于2020-09

还可以看看这一片博客,写得很好
https://zhuanlan.zhihu.com/p/59690223

1
回复
AIStudio810258
#4 回复于2020-09
笨笨 #3
还可以看看这一片博客,写得很好 https://zhuanlan.zhihu.com/p/59690223

写得确实不错啊

0
回复
AIStudio810258
#5 回复于2020-09

ImageNet最后的王者~~

0
回复
白加黑127
#6 回复于2020-09

请问是否可以将Sknet中的两个fc换成1x1卷积来实现attention?

还想请问看sknet是通过-->3x3卷积和3x3(d=2)的卷积,-->特征相加sum  --> 全局平均池化 --》 fc(size=num_channels//reduction_radio)  -->fc_1(size = num_channels*M(分支数)) --> 将fc_1分离成M份,???? 并与不同conv相乘,最终相加.。

对于在实现"将fc_1分离成M份",我是通过将split的api实现分成attention_1和attention_2最终于最初两个卷积的特征图相乘,但有个问题是如何知道attention_1对应的是3x3卷积的特征图还是3x3(d=2) 卷积的特征图??是通过反向传播,进行参数更新是attention_1自动变成和3x3卷积对应的注意力吗??

0
回复
不败小段哥
#7 回复于2020-09
笨笨 #3
还可以看看这一片博客,写得很好 https://zhuanlan.zhihu.com/p/59690223

博客很好,收藏了

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户