目前调模型都是设定batch_size = 1,2,3。
只是简单的图片分类,标准的224尺寸。大家都用什么网络?我只能用到resnet50,一用101就内存溢出,152都不敢想了。是我代码效率有问题么?
如果为了用复杂的模型训练,batch_size降到4以下甚至1,除了效率以外有没有什么其他不好的影响?
收藏
点赞
0
个赞
请登录后评论
TOP
切换版块
这位大佬有好多学生给他跑吧,哈哈
大佬,模型最多跑过多长时间
分类还是目标检测的backbone
那你pc也是内存足够大。系统足够稳定。AI识虫我跑了两天结果浏览器崩溃了。。。
分类还是检测?
之前我跑一个gan,开着机跑了七八天
152层
估计还是我的模型或程序写的有问题。你跑过最复杂的模型是什么,resnet最大跑过多少层的?
大部分模型用算力卡都能跑
yolov3的模型,保存一个要200多M,这个图片分类的模型保存也就90多M,为什么会内存溢出呢?求教大佬。