复现的bisenet v2 语义分割网络 cityscapes数据集,训练了200轮 ,miou最高51%多,adam优化算法(lr=0.01),训练集2790张图片,loss在1.8~1.9,miou在七八十,测试集在500张,loss在3.5左右,miou最高51%,
感觉测试集的miou有点升不上去了,有点不知道咋办了?bn啥的都加了
请大佬指点下,还是我继续增加训练轮数?有点过拟合了?真是没有啥思路了
那这个意思就是,预训练模型不是学的它自己训练集的摸个类别的整体特征,而是区分各个类别的各个层次的特征
就是说,飞机、汽车的花纹会识别了,再学习识别船也会更容易。因为他们具有一些共同的特征。
那么学会了识别交通工具的模型,迁移到识别动物上会不会没有什么帮助呢?
收敛快。那么最终的精度是不是还不如直接用预训练模型?如果预训练模型类别完全覆盖自己的数据的类别。
嗯,finetune主要就是重新训练最后的分类全连接层
这个不太好理解
对 边缘特征
那是不是冻结全面的层只训练fc也可?
帮助应该还是有的,效果怎么样还得实践。
边缘啊等等
这方面看看可视化、可解释的材料应该有些帮助吧
前一阵有个mit的牛人,弄了个可视化分析卷积怎么学习特征图、怎么被激活的工具页面。。。
昨天大谷大神还在修复老北京视频的视频里提到着
这个要看情况吧,根据自己训练集的多少,和与预训练模型的训练集是否接近有关。
要是数据量不大,又和预训练模型的数据集高度相似,应该就可以吧
也是,再不同的物体也是存在一定相似性的。再说机器和人理解图片的方式也大相径庭
对的,好像是博士论文什么的
可以试试,
这些东西被研究透了,以后的课可能就可以开ai理论了
web吗?我收藏夹里有可视化卷积
那这个意思就是,预训练模型不是学的它自己训练集的摸个类别的整体特征,而是区分各个类别的各个层次的特征
就是说,飞机、汽车的花纹会识别了,再学习识别船也会更容易。因为他们具有一些共同的特征。
那么学会了识别交通工具的模型,迁移到识别动物上会不会没有什么帮助呢?
收敛快。那么最终的精度是不是还不如直接用预训练模型?如果预训练模型类别完全覆盖自己的数据的类别。
嗯,finetune主要就是重新训练最后的分类全连接层
这个不太好理解
对 边缘特征
那是不是冻结全面的层只训练fc也可?
帮助应该还是有的,效果怎么样还得实践。
边缘啊等等
这方面看看可视化、可解释的材料应该有些帮助吧
前一阵有个mit的牛人,弄了个可视化分析卷积怎么学习特征图、怎么被激活的工具页面。。。
昨天大谷大神还在修复老北京视频的视频里提到着
这个要看情况吧,根据自己训练集的多少,和与预训练模型的训练集是否接近有关。
要是数据量不大,又和预训练模型的数据集高度相似,应该就可以吧
也是,再不同的物体也是存在一定相似性的。再说机器和人理解图片的方式也大相径庭
对的,好像是博士论文什么的
可以试试,
这些东西被研究透了,以后的课可能就可以开ai理论了
web吗?我收藏夹里有可视化卷积