当前创建数据集的方式,主要是通过web端上传,对于少量的数据,这种方式还可以将就,但是深度学习大部分情况下都需要大量的数据,动辄几个G到几十个G是很正常的。
这就需要一种支持断点续传的上传方式。
再者,很多数据集,开发者也需要从其他地方下载过来,然后再上传到平台上,这个过程由于个人使用的网络状况不同,又会耽误很多时间。
鉴于这种情况,建议开放从百度网盘直接导入数据集的功能。这样一来上传可以利用百度网盘的断点续传,而且下载的时候也可以利用百度网盘的离线下载,会极大的提高上传及创建数据集的效率。
同意的在下面顶一下!
请登录后评论
TOP
切换版块
能联动估计得看百度云盘部门愿不愿意,这个技术上不是什么大问题
colab用惯了,再用百度的,感觉有点原始,数据集都得手动导入
想法不错,顶一下
要是想colab那样,和百度云盘联动就强了
是个好想法