首页 炼丹房 帖子详情
softmax是激活函数还是损失函数
收藏
快速回复
炼丹房 问答学习资料新手上路 380 1
softmax是激活函数还是损失函数
收藏
快速回复
炼丹房 问答学习资料新手上路 380 1

0
收藏
回复
全部评论(1)
时间顺序
thgpddl
#2 回复于2022-07

对的,我上次使用交叉熵损失时,在网络最后一层加了nn.Softmax()层,然后梯度就不更新了,排查了半天解决了,就是损失函数也有softmax,相当于计算loss时经过了两次softmax,最后计算的loss就很低了

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户