超过150M文件上传的方法
收藏
快速回复
AI Studio平台使用 问答Notebook项目 13339 16
超过150M文件上传的方法
收藏
快速回复
AI Studio平台使用 问答Notebook项目 13339 16

参见此贴 https://ai.baidu.com/forum/topic/show/964569

感谢原帖作者提供思路,但这个方法直接获取的地址网盘做了重定向,所以是无法直接下载的,我来补充完善下,而且现在文叔叔还限流了,另外推荐一个网盘:奶牛 cowtransfer.com,速度还可以。

前面都是一样的,本地打包自己的文件,上传至网盘,下载,获取下载路径,原方法已经失效,这里补充下新的方法

wget -c --referer=分享链接 -O file.tar.gz "网盘下载地址"

 

虽然有数据集,但是需要停止项目,有时候还要加载好几次才能看到文件,个人觉得还是不太方便,也希望官方能提升下配额,一次痛快给个1G的吧(●'◡'●)

 

 

2
收藏
回复
全部评论(16)
时间顺序
UnseenMe
#2 回复于2020-09

感谢分享

0
回复
暮光の灵
#3 回复于2020-09

盘下载会限速吧

0
回复
AIStudio810258
#4 回复于2020-09

好人诶

0
回复
旧日歌
#5 回复于2020-09
盘下载会限速吧

文叔叔好像现在限速了,不要登陆,临时文件就可以。以前可以跑满,我这边限制了。

奶牛一直是1M左右

0
回复
Zohar
#6 回复于2020-09

可以分卷压缩后上传,再解压

0
回复
Zohar
#7 回复于2020-09

还有一个不靠谱的方法就是通过数据集方式引入

0
回复
旧日歌
#8 回复于2020-09
Zohar #6
可以分卷压缩后上传,再解压

分卷容易造成文件破损,我试过几次,出错几率高。

0
回复
旧日歌
#9 回复于2020-09
Zohar #7
还有一个不靠谱的方法就是通过数据集方式引入

数据集是好,就是需要重启项目

0
回复
AIStudio810260
#10 回复于2020-09
分卷容易造成文件破损,我试过几次,出错几率高。

不会吧……之前分卷20G的文件都没问题啊

0
回复
旧日歌
#11 回复于2020-09
不会吧……之前分卷20G的文件都没问题啊

厉害了,20G,你是做什么的,那么大的文件

0
回复
AIStudio810260
#12 回复于2020-09
旧日歌 #11
厉害了,20G,你是做什么的,那么大的文件

这算小的文件了,某池好几个比赛都没法搬数据,动不动几百G

0
回复
旧日歌
#13 回复于2020-09
这算小的文件了,某池好几个比赛都没法搬数据,动不动几百G

一个项目最大不是只给100G吗?还能突破了?

0
回复
AIStudio810260
#14 回复于2020-09
旧日歌 #13
一个项目最大不是只给100G吗?还能突破了?

所以搬运不过来啊,不过是只有Notebook项目上限100G,脚本任务好像可以超过这个限制的。

0
回复
旧日歌
#15 回复于2020-09
所以搬运不过来啊,不过是只有Notebook项目上限100G,脚本任务好像可以超过这个限制的。

刚刚才发现,我在跟一个V6的大佬在对话,好激动啊

0
回复
AIStudio810260
#16 回复于2020-09
旧日歌 #15
刚刚才发现,我在跟一个V6的大佬在对话,好激动啊

灌水灌出来的6级哈哈哈哈

0
回复
AIStudio810260
#17 回复于2020-09
所以搬运不过来啊,不过是只有Notebook项目上限100G,脚本任务好像可以超过这个限制的。

突然发现一个问题,现在上传数据集要求总体积不超过50GB,所以非常大的文件还是没法搬运,就算切分了也不行。

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户