训练一个模型时发现,训练集收敛很快就到了100%,这是再增加层数已经没用了,因为模型已经过拟合
但是增加数据增强处理竟然也没什么用,后来再增加了层数才提高了精度。
难道模型真的会同时过拟合和欠拟合么?还是理解的有问题
偏差和方差倒是可能同时很大的
或者是不是可以这样理解,添加了数据增强相当于增加了训练数据,这时再增加模型深度就能拟合更多特征了?
你的数据是什么样子的?
我靠,不懂哎
这也可以?
分布没什么奇特的,就是图片分类数据集
应该是个人经验的坑~
数据类别分布不平衡也会导致或加剧类似的情况么
反正别的参数都没变,就是增加了层数
就是找找感觉,现在都nas了么~
尤其是gan的过拟合和欠拟合,是判别器还是生成器过拟合,判断起来不容易啊。。。
我也是~
传说中的好的没有差的都迭代到一起了?
比较懵
过拟合和欠拟合 同时的表现是什么呀坤哥
哈哈哈,很有可能
就是训练集和验证集准确率都低,验证集低之又低
然后先解决欠拟合,再解决过拟合。有个ucb的课挺有启发,后来发现讲的就是吴神的那本Machine Learning Yarning
但是增加数据增强处理竟然也没什么用,后来再增加了层数才提高了精度。
难道模型真的会同时过拟合和欠拟合么?还是理解的有问题
偏差和方差倒是可能同时很大的
或者是不是可以这样理解,添加了数据增强相当于增加了训练数据,这时再增加模型深度就能拟合更多特征了?
你的数据是什么样子的?
我靠,不懂哎
这也可以?
分布没什么奇特的,就是图片分类数据集
应该是个人经验的坑~
数据类别分布不平衡也会导致或加剧类似的情况么
反正别的参数都没变,就是增加了层数
就是找找感觉,现在都nas了么~
尤其是gan的过拟合和欠拟合,是判别器还是生成器过拟合,判断起来不容易啊。。。
我也是~
传说中的好的没有差的都迭代到一起了?
比较懵
过拟合和欠拟合 同时的表现是什么呀坤哥
哈哈哈,很有可能
就是训练集和验证集准确率都低,验证集低之又低
然后先解决欠拟合,再解决过拟合。有个ucb的课挺有启发,后来发现讲的就是吴神的那本Machine Learning Yarning