wgan-gp加上注意力块loss就飞了。。。
收藏
给wgan-gp加上non-local层后,发现判别器的loss开始变成负数,向负无穷大更新了
0
收藏
请登录后评论
生成器loss向正无穷大发展了
我在ai studio上找到了一个大佬的wgan-gp项目,运行在1.8下就ok,换成2.0环境,loss也会飞。。。
是2.0框架的问题?
不清楚,但我确实代码一点没动
我想可能2.0版本一些api的默认设置可能有所不同吧
感觉还是lsgan用起来更6
但看起来还是wgan用得多,尤其是有了spectral norm以后
难道是底层变化了?
反正就是1.8版本的项目,我为了加2.0的模块,就给环境改成2.0了