softmax是激活函数还是损失函数
收藏
0
收藏
请登录后评论
对的,我上次使用交叉熵损失时,在网络最后一层加了nn.Softmax()层,然后梯度就不更新了,排查了半天解决了,就是损失函数也有softmax,相当于计算loss时经过了两次softmax,最后计算的loss就很低了