上传数据集方式优化建议
寒鹤 发布于2020-04 浏览:3711 回复:5
1
收藏

当前创建数据集的方式,主要是通过web端上传,对于少量的数据,这种方式还可以将就,但是深度学习大部分情况下都需要大量的数据,动辄几个G到几十个G是很正常的。

这就需要一种支持断点续传的上传方式。

再者,很多数据集,开发者也需要从其他地方下载过来,然后再上传到平台上,这个过程由于个人使用的网络状况不同,又会耽误很多时间。

鉴于这种情况,建议开放从百度网盘直接导入数据集的功能。这样一来上传可以利用百度网盘的断点续传,而且下载的时候也可以利用百度网盘的离线下载,会极大的提高上传及创建数据集的效率。

同意的在下面顶一下!

 

收藏
点赞
1
个赞
共5条回复 最后由自尊心3回复于2020-05
#6自尊心3回复于2020-05

能联动估计得看百度云盘部门愿不愿意,这个技术上不是什么大问题

0
#5李亚琴45回复于2020-05

colab用惯了,再用百度的,感觉有点原始,数据集都得手动导入

0
#4大手拉小手0123回复于2020-04

想法不错,顶一下

0
#3自尊心3回复于2020-04

要是想colab那样,和百度云盘联动就强了

0
#2wangwei8638回复于2020-04

是个好想法

0
快速回复
小编推荐
AI的思维
Baidu Create 2018全程回顾
TOP
切换版块