cycleGAN 的判别器判别图片的真假为何用 MSE 而不是 二分类的 BCE loss ?
BCE loss 一般是多个标签的二分类吧,这里只有真假一个标签的2分类。选MSE可能也是因为比较平滑好训练吧
其实还可以用负对数似然
谢谢,后来我又找了些文章看了看。有人用3d空间里loss 算出来的平面展示了两种loss 的区别
我也照公式写了下,发现具体同时还得加个exp 防止计算中有非法值产生nan
这个我也去试试
loss 函数能改进 gan 的稳定性
但需要数序功底深厚才能正确分析。
我就直接用lsgan、wgan了,哈哈~~
确实,wgan提出就很牛*
原来这些gan 比原版的gan 好,是因为他们是所谓“最大距离分类器"。交叉熵损失只计算分类,不计算距离
参考系不一样
什么意思?
是说替换js散度吧
GAN虽然都是图像生成,但具体细分有CycleGAN这种图像翻译,Pixel GAN这种超分辨...不同的GAN用的loss不太一样的
我也只是随便讲讲,在GAN面前还是大佬你牛
嗯,感觉gan的一般精髓在loss
嗯嗯 不同的GAN loss都不太一样,有一个人脸融合的模型就是用的其他loss,复现起来还有点难度
前两天看了一篇博客,专门介绍一个l1、l2自适应loss 函数,感觉思路和ugatit 里的adaLIN 一模一样
期待项目~
想搞,但是有难度。。。
有链接么
BCE loss 一般是多个标签的二分类吧,这里只有真假一个标签的2分类。选MSE可能也是因为比较平滑好训练吧
其实还可以用负对数似然
谢谢,后来我又找了些文章看了看。有人用3d空间里loss 算出来的平面展示了两种loss 的区别
我也照公式写了下,发现具体同时还得加个exp 防止计算中有非法值产生nan
这个我也去试试
loss 函数能改进 gan 的稳定性
但需要数序功底深厚才能正确分析。
我就直接用lsgan、wgan了,哈哈~~
确实,wgan提出就很牛*
原来这些gan 比原版的gan 好,是因为他们是所谓“最大距离分类器"。交叉熵损失只计算分类,不计算距离
参考系不一样
什么意思?
是说替换js散度吧
GAN虽然都是图像生成,但具体细分有CycleGAN这种图像翻译,Pixel GAN这种超分辨...不同的GAN用的loss不太一样的
我也只是随便讲讲,在GAN面前还是大佬你牛
嗯,感觉gan的一般精髓在loss
嗯嗯 不同的GAN loss都不太一样,有一个人脸融合的模型就是用的其他loss,复现起来还有点难度
前两天看了一篇博客,专门介绍一个l1、l2自适应loss 函数,感觉思路和ugatit 里的adaLIN 一模一样
期待项目~
想搞,但是有难度。。。
有链接么