教材上的例程
https://aistudio.baidu.com/aistudio/projectdetail/499776
训练20轮左右分类器和判别器的loss就突然全大幅下降,然后生成图片就全黑了,怎么导致的?
留下脚印,
参考下:
https://aistudio.baidu.com/aistudio/projectdetail/674700
太玄了
我也试过,那就属于自己配单方了。后来大神们改进的lsgan、wgan就是为了不用自己一边炼丹一边调火候~~
这个因为输入数据范围归一化为【-1,1】区间,所以生成图片的数值也应该在【-1,1】范围。原来我用relu着,范围是【0,1】
g用relu时生成的数字都是”瘦金体“的~~
尤其前几轮,远远不如改为tanh激活后”圆润、饱满“,分析是因为g生成的像素里值小于1的都被抑制掉了。但训练后期区别也不大。但还是用tanh的稳定
666
都说不知道用什么的时候就用ReLU,但其实想优化还是得把所有可能的参数调一下
最近发现,wgan-gp的d的loss照样会飞天~~
试试spectral normalization 效果吧
现在有点儿明白了ugatit 为何要用lsgan + spectral norm ,而不是wgan了
楼主您好,我目前也遇到了您这样的情况,不过我是一开始训练生成的图像就是黑的,请问您的问题解决了嘛?tensorflow_tutorial/avatarDcgan at master · lpty/tensorflow_tutorial (github.com) 这是我使用代码的链接,链接能跑通,但是生成的图像是全黑的,从一开始就是黑的,有点愁找不到原因,还请楼主和各位大神们赐教
留下脚印,
参考下:
https://aistudio.baidu.com/aistudio/projectdetail/674700
太玄了
我也试过,那就属于自己配单方了。后来大神们改进的lsgan、wgan就是为了不用自己一边炼丹一边调火候~~
这个因为输入数据范围归一化为【-1,1】区间,所以生成图片的数值也应该在【-1,1】范围。原来我用relu着,范围是【0,1】
g用relu时生成的数字都是”瘦金体“的~~
尤其前几轮,远远不如改为tanh激活后”圆润、饱满“,分析是因为g生成的像素里值小于1的都被抑制掉了。但训练后期区别也不大。但还是用tanh的稳定
666
都说不知道用什么的时候就用ReLU,但其实想优化还是得把所有可能的参数调一下
最近发现,wgan-gp的d的loss照样会飞天~~
试试spectral normalization 效果吧
现在有点儿明白了ugatit 为何要用lsgan + spectral norm ,而不是wgan了
楼主您好,我目前也遇到了您这样的情况,不过我是一开始训练生成的图像就是黑的,请问您的问题解决了嘛?tensorflow_tutorial/avatarDcgan at master · lpty/tensorflow_tutorial (github.com) 这是我使用代码的链接,链接能跑通,但是生成的图像是全黑的,从一开始就是黑的,有点愁找不到原因,还请楼主和各位大神们赐教