关于语义分割网络效果问题?
收藏
请问自己复现语义分割的模型时,在cityscaps和camvid数据集上,试验了Unet ,Enet,BiseNet V2,但 测试集的miou怎么就没超过50%的,最高的也就40多,别人的论文是怎么达到70多的?数据增广吗?还是训练时长?难道是Adam优化算法的问题?大佬们的论文中miou是怎么搞那么高的?复现别人的网络结构怎么差这么多?
大佬们有没有语义分割的项目 fork 一下,看看大佬们是怎么做的。
0
收藏
请登录后评论
可以注意下图像预处理部分,有很多tricks
大佬能不能在点我一下,之前预处理关注的不多,请您随便说点tricks,让我拓宽点思路。
不同的优化器有时候差距很大的,试试sgd那些,还有一些BN这些操作看看有没有漏掉的,还得检查一遍计算细节看看有没有哪里写错了。Paddle在PaddleSeg里有自己复现的Unet, PaddleSeg/pdseg/model/modeling/unet.py,你可以对比一下。整体网络结构比较简单。
https://aistudio.baidu.com/aistudio/projectdetail/124368
https://aistudio.baidu.com/aistudio/projectdetail/124366