用cycleGAN训练跨域转换图片时发现,从A到B(比如从斑马到马)效果要远远差于从B到A。这是怎么回事?
这是数据集的原因么?cycleGAN的结构是完全对称的,效果怎么差那么多?
我也试过读取数据时把AB组对调,转换的效果还是和原来一样。排除了程序结构错误的可能吧
如果马到斑马有比较好的效果,那么斑马到马也会有不错的效果的
可能模型还不够鲁棒吧
去学学你那个cycleGAN的项目~~
你可以去download.py中找找有个网址 下一下斑马和马的数据集
我直接贴上斑马-->马的链接吧:https://people.eecs.berkeley.edu/~taesung_park/CycleGAN/datasets/horse2zebra.zip
这个资源没被墙,下的还挺快
传说中的好人哪!
讨论出 原因没?
正在down,111m,一会穿上去试试
我觉得参数跳得还不够好
大佬,你做那些gan项目时学习率是用的原论文给的或是借鉴Paddl模型库那个版本,还是每个都自己调?
会不会 是 上采样的原因 ?
比如“斑马2马,照片2梵高,人脸2动漫”这些项目是都用同样的学习率就可以,还是每个都自己从头调,或者是从原论文那个lr策略微调?
官方源码是用转置卷积实现的。要怎么改进呢?换成插值上采样?还是调整上采样的stride,padding或其他参数?
感谢大佬提方向!
能不能具体说说?
我先下载源码 看看 再说
这是地址:
https://github.com/znxlwm/UGATIT-pytorch
大佬威武!感谢!
真人不露相啊。。。
这是数据集的原因么?cycleGAN的结构是完全对称的,效果怎么差那么多?
我也试过读取数据时把AB组对调,转换的效果还是和原来一样。排除了程序结构错误的可能吧
如果马到斑马有比较好的效果,那么斑马到马也会有不错的效果的
可能模型还不够鲁棒吧
去学学你那个cycleGAN的项目~~
你可以去download.py中找找有个网址 下一下斑马和马的数据集
我直接贴上斑马-->马的链接吧:https://people.eecs.berkeley.edu/~taesung_park/CycleGAN/datasets/horse2zebra.zip
这个资源没被墙,下的还挺快
传说中的好人哪!
讨论出 原因没?
正在down,111m,一会穿上去试试
我觉得参数跳得还不够好
大佬,你做那些gan项目时学习率是用的原论文给的或是借鉴Paddl模型库那个版本,还是每个都自己调?
会不会 是 上采样的原因 ?
比如“斑马2马,照片2梵高,人脸2动漫”这些项目是都用同样的学习率就可以,还是每个都自己从头调,或者是从原论文那个lr策略微调?
官方源码是用转置卷积实现的。要怎么改进呢?换成插值上采样?还是调整上采样的stride,padding或其他参数?
感谢大佬提方向!
能不能具体说说?
我先下载源码 看看 再说
这是地址:
https://github.com/znxlwm/UGATIT-pytorch
大佬威武!感谢!
真人不露相啊。。。