在bn、dropout的处理中,train阶段和非train阶段处理不同,如何确定模型是在训练还是在预测或验证?
就是我原来提过的那本“用python手撸神经网络”的书
现在我才明白毕老师在课上问的那个问题是什么意思:为什么不用准确率而用loss函数优化网络。
原因就是准确率不能总是很好的提供梯度
强强强
怎么说?
因为“识别精度”指标,没有loss函数那么对分类结果的评价那么“敏感。
好多时候,稍稍改变一点权重,准确率是没有变化的。那么梯度偏导数就是0了
没有梯度就没法优化网络
在做分类任务时,有时候训练集准确率已经是1了,还是能够继续提升模型效果的~~
看验证集准确率还在提升
怪不得,很多时候都不打印metric而是loss
到了gan的世界,loss也不是万能的了。。。
原来我还管metric叫accuracy着,多读书多看代码吧~~
哈哈哈,确实,效果好不好还得看出来的图片
因为api里面这么叫。
还是“衡量”更准确,只有分类才只衡量准确率。检测,分割标准不一样
我记得有个training参数
学习了
就是我原来提过的那本“用python手撸神经网络”的书
现在我才明白毕老师在课上问的那个问题是什么意思:为什么不用准确率而用loss函数优化网络。
原因就是准确率不能总是很好的提供梯度
强强强
怎么说?
因为“识别精度”指标,没有loss函数那么对分类结果的评价那么“敏感。
好多时候,稍稍改变一点权重,准确率是没有变化的。那么梯度偏导数就是0了
没有梯度就没法优化网络
在做分类任务时,有时候训练集准确率已经是1了,还是能够继续提升模型效果的~~
看验证集准确率还在提升
怪不得,很多时候都不打印metric而是loss
到了gan的世界,loss也不是万能的了。。。
原来我还管metric叫accuracy着,多读书多看代码吧~~
哈哈哈,确实,效果好不好还得看出来的图片
因为api里面这么叫。
还是“衡量”更准确,只有分类才只衡量准确率。检测,分割标准不一样
我记得有个training参数
学习了