如题目
其实我说的主要是某池那种,一般排名前几的都是很多卡几个路线同时开始。AI Studio的比赛还好点,国外某K平台很多比赛也是要求在Notebook上打的,但也有很多都是线下训练好权重挂上去跑个结果的,大概率也是多卡训练的。
Kaggle提交结果需要用模型在上面跑一遍吗
不是一般交一个submit文件吗,我说的是线下调好了,挂个权重上去跑预测~
懂了,是到时候代码审核吧~
batch 调不大。跑的慢。有些任务也跑不到理论上限,很伤,话说现在1天10积分,一天就销,每天上线看着0h的算力卡。。。哎。
参加比赛有送算力卡~~
哈哈
好像不行吧
没想过
他们不是说打比赛需要好多好多卡
batch_size太大效果也不好,一般64 128差不多了
可以,在算力卡详情那里能看获得的时间和持续时间
百度之星的顾大佬就是用Notebook跑的
那得是打ImageNet。。。
太大来回蹦
哇
这样呀 尴尬
实践告诉我batch_size在这个值效果好。
本地调试,放到Notebook跑,毕竟V100啊!
这确实是
其实我说的主要是某池那种,一般排名前几的都是很多卡几个路线同时开始。AI Studio的比赛还好点,国外某K平台很多比赛也是要求在Notebook上打的,但也有很多都是线下训练好权重挂上去跑个结果的,大概率也是多卡训练的。
Kaggle提交结果需要用模型在上面跑一遍吗
不是一般交一个submit文件吗,我说的是线下调好了,挂个权重上去跑预测~
懂了,是到时候代码审核吧~
batch 调不大。跑的慢。有些任务也跑不到理论上限,很伤,话说现在1天10积分,一天就销,每天上线看着0h的算力卡。。。哎。
参加比赛有送算力卡~~
哈哈
好像不行吧
没想过
他们不是说打比赛需要好多好多卡
batch_size太大效果也不好,一般64 128差不多了
可以,在算力卡详情那里能看获得的时间和持续时间
百度之星的顾大佬就是用Notebook跑的
那得是打ImageNet。。。
太大来回蹦
哇
这样呀 尴尬
实践告诉我batch_size在这个值效果好。
本地调试,放到Notebook跑,毕竟V100啊!
这确实是