加载数据集时,一个19g的zip文件没刷出来。。。
其实还有一个train.zip没刷出来
数据集里是4个文件的
原来更新到2.1啦,cool~
32g主机单独列出,太好了,现在是16g一机难求了,哈哈。0.5算力卡~~
不会啊,一登陆就进去了
感觉大佬肯定是抢32G的啦
现在有16g的了,现在我正用分割网络处理数据集,不用32g的
毕竟16g的是.5算力卡~~
但要想效果好,还得大batch size是王道啊
哈哈哈,我也是用16G的,NLP的任务显存占用才9G多,还行还行
batchsize影响的主要是时间吧……
有人专门研究过cv里batchsize的影响
而且biggan里的trick之一就是大batchsize,那个big就有batchsize的big
还有用syncbatchnorm代替普通batchnormal涨点的技术
当然得多gpu才用得上
我看到的资料,一般的论调还是大batchsize精度更高,包括各种cv上下游任务
这个好像不一定的,以前有遇过目标检测精度没法对齐,说是大卡和小卡的区别,最后还是batchsize的问题
影响蛮大的,好像越大越好
正解,经验告诉我就是这样的。
看看关了重新进一下,或者等一下,有时候我也会刷不出来,数据集比较大的时候
其实还有一个train.zip没刷出来
数据集里是4个文件的
原来更新到2.1啦,cool~
32g主机单独列出,太好了,现在是16g一机难求了,哈哈。0.5算力卡~~
不会啊,一登陆就进去了
感觉大佬肯定是抢32G的啦
现在有16g的了,现在我正用分割网络处理数据集,不用32g的
毕竟16g的是.5算力卡~~
但要想效果好,还得大batch size是王道啊
哈哈哈,我也是用16G的,NLP的任务显存占用才9G多,还行还行
batchsize影响的主要是时间吧……
有人专门研究过cv里batchsize的影响
而且biggan里的trick之一就是大batchsize,那个big就有batchsize的big
还有用syncbatchnorm代替普通batchnormal涨点的技术
当然得多gpu才用得上
我看到的资料,一般的论调还是大batchsize精度更高,包括各种cv上下游任务
这个好像不一定的,以前有遇过目标检测精度没法对齐,说是大卡和小卡的区别,最后还是batchsize的问题
影响蛮大的,好像越大越好
正解,经验告诉我就是这样的。
看看关了重新进一下,或者等一下,有时候我也会刷不出来,数据集比较大的时候