语义分割中,修改哪些参数能有效防止模型过拟合?
学习的时候知道正则化能有效防止过拟合,但是,在训练的时候,放大了sgd的weight decay,还是呈现出过拟合>_<
是不是迭代次数太多了,降低点迭代次数
还有就是训练的时候增加点噪音,也可以防止过拟合
或者扩大训练样本权重也可以防止
加点数据增强
厉害。
感谢大佬,已经通过图片随机翻转,裁剪和颜色对比度等方式进行数据增强了,但还是有些过拟合,降低了迭代次数,但是评估出的最佳模型结果和预期比偏低,又想着还是把迭代次数给增加了 (*>.<*)~
666
减少参数,包括深度与宽度
除超参外也可以使用数据增强
感觉最有用的还是做一些数据增强 增加图片数量 会好一些
感谢指导
带动量的SGD
L2
dropout
一般在各层后加入dropout,drop率在0.5左右,需要根据自己的实验多试几次
做一些数据增强 增加图片数量
正则化系数呀
是不是迭代次数太多了,降低点迭代次数
还有就是训练的时候增加点噪音,也可以防止过拟合
或者扩大训练样本权重也可以防止
加点数据增强
厉害。
感谢大佬,已经通过图片随机翻转,裁剪和颜色对比度等方式进行数据增强了,但还是有些过拟合,降低了迭代次数,但是评估出的最佳模型结果和预期比偏低,又想着还是把迭代次数给增加了 (*>.<*)~
666
减少参数,包括深度与宽度
除超参外也可以使用数据增强
感觉最有用的还是做一些数据增强 增加图片数量 会好一些
感谢指导
带动量的SGD
L2
dropout
一般在各层后加入dropout,drop率在0.5左右,需要根据自己的实验多试几次
做一些数据增强 增加图片数量
正则化系数呀