数据集没有刷全
收藏
快速回复
AI Studio平台使用 问答数据集 887 24
数据集没有刷全
收藏
快速回复
AI Studio平台使用 问答数据集 887 24

加载数据集时,一个19g的zip文件没刷出来。。。

0
收藏
回复
全部评论(24)
时间顺序
AIStudio810258
#2 回复于2021-05

其实还有一个train.zip没刷出来

0
回复
AIStudio810258
#3 回复于2021-05

数据集里是4个文件的

0
回复
AIStudio810258
#4 回复于2021-05

原来更新到2.1啦,cool~

0
回复
AIStudio810258
#5 回复于2021-05

32g主机单独列出,太好了,现在是16g一机难求了,哈哈。0.5算力卡~~

0
回复
深渊上的坑
#6 回复于2021-05
32g主机单独列出,太好了,现在是16g一机难求了,哈哈。0.5算力卡~~

不会啊,一登陆就进去了

0
回复
深渊上的坑
#7 回复于2021-05

感觉大佬肯定是抢32G的啦

0
回复
FutureSI
#8 回复于2021-05
感觉大佬肯定是抢32G的啦

现在有16g的了,现在我正用分割网络处理数据集,不用32g的

0
回复
FutureSI
#9 回复于2021-05
感觉大佬肯定是抢32G的啦

毕竟16g的是.5算力卡~~

0
回复
FutureSI
#10 回复于2021-05

但要想效果好,还得大batch size是王道啊

0
回复
深渊上的坑
#11 回复于2021-05
现在有16g的了,现在我正用分割网络处理数据集,不用32g的

哈哈哈,我也是用16G的,NLP的任务显存占用才9G多,还行还行

0
回复
深渊上的坑
#12 回复于2021-05
FutureSI #10
但要想效果好,还得大batch size是王道啊

batchsize影响的主要是时间吧……

0
回复
FutureSI
#13 回复于2021-05
batchsize影响的主要是时间吧……

有人专门研究过cv里batchsize的影响

0
回复
FutureSI
#14 回复于2021-05
batchsize影响的主要是时间吧……

而且biggan里的trick之一就是大batchsize,那个big就有batchsize的big

0
回复
FutureSI
#15 回复于2021-05

还有用syncbatchnorm代替普通batchnormal涨点的技术

0
回复
FutureSI
#16 回复于2021-05
FutureSI #15
还有用syncbatchnorm代替普通batchnormal涨点的技术

当然得多gpu才用得上

0
回复
FutureSI
#17 回复于2021-05

我看到的资料,一般的论调还是大batchsize精度更高,包括各种cv上下游任务

0
回复
深渊上的坑
#18 回复于2021-05
FutureSI #17
我看到的资料,一般的论调还是大batchsize精度更高,包括各种cv上下游任务

这个好像不一定的,以前有遇过目标检测精度没法对齐,说是大卡和小卡的区别,最后还是batchsize的问题

0
回复
JavaRoom
#19 回复于2021-05
FutureSI #13
有人专门研究过cv里batchsize的影响

影响蛮大的,好像越大越好

0
回复
JavaRoom
#20 回复于2021-05
FutureSI #17
我看到的资料,一般的论调还是大batchsize精度更高,包括各种cv上下游任务

正解,经验告诉我就是这样的。

0
回复
furoce
#21 回复于2021-05

看看关了重新进一下,或者等一下,有时候我也会刷不出来,数据集比较大的时候

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户