关于语义分割网络最后一层的问题
收藏
在进行语义分割网络搭建过程中,网络的最后一层的通道数是标记的类数,激活函数用什么呢?relu?还是softmax?
在计算loss是如何进行的?最后网络输出的n通道的张量,但label是单通道的
0
收藏
请登录后评论
你要说明你用的哪个算法啊,分割的loss有10多种,开发者根据自己数据集选择效果最好的
relu比较香
unet接softmax,fcn就接relu,根据loss定的
用于输出的1x1卷积层也需要接激活函数吗?直接1x1卷成类别数的话 和 加上relu有明显区别嘛?
这个我也不是特别懂。但我理解,最后加不加、加什么激活函数都是要和loss函数进行配合的