对标某些竞品,数据集也有评论,读者也能直接找到关联的项目,哈哈哈。
这样上传优质数据集的作者也有成就感嘛,如果数据集简介不完整,用户也能评论指出,一起完善平台数据集的质量。
我见过几百G的。。。简直了
在AIstudio吗?
应该不是的
我感觉那种几百G的拿出来,纯粹就是自己不想清晰,让参赛选手帮着干活来着
啊?又改了吗?以前不是最大可以50G单个文件么
不然怎么叫“端到端”【狗头】
降了好像,原来总量是100G
不过我觉得50G也正常,要知道Notebook最大也就100G,那100G数据集解压完直接就满了
这个端到端很是兴师动众啊
话说回来,超大数据集比较适合脚本任务
官方:数据清洗不应该是工程师的基本技能吗?
以前是100G,每个文件最大10G;
现在是50G,每个文件最大50G。
很适合让实习生干呀/狗头
这个设置很人性化
明白了
分析的有道理,哈哈
变相提高难度
哈哈哈,某次参加了个比赛,未解压就32G了,还都是日志数据……瑟瑟发抖
实习生好惨~
日志?
我见过几百G的。。。简直了
在AIstudio吗?
应该不是的
我感觉那种几百G的拿出来,纯粹就是自己不想清晰,让参赛选手帮着干活来着
啊?又改了吗?以前不是最大可以50G单个文件么
不然怎么叫“端到端”【狗头】
降了好像,原来总量是100G
不过我觉得50G也正常,要知道Notebook最大也就100G,那100G数据集解压完直接就满了
这个端到端很是兴师动众啊
话说回来,超大数据集比较适合脚本任务
官方:数据清洗不应该是工程师的基本技能吗?
以前是100G,每个文件最大10G;
现在是50G,每个文件最大50G。
很适合让实习生干呀/狗头
这个设置很人性化
明白了
分析的有道理,哈哈
变相提高难度
哈哈哈,某次参加了个比赛,未解压就32G了,还都是日志数据……瑟瑟发抖
实习生好惨~
日志?