训练到一半程序被终止了,还好保存了中间结果。最好能给真正需要的同学有条件的超过70小时限制。
跑脚本任务呗。说实话百度平台上也就跑些50小时内能出来的模型,再多了的还是得自己买显卡搞。
你第一个模型就300小时,调整成本也太大了吧。除非你能保证第一个模型就是最优的
数据量太大了。而且也没改善多少。
先down sample一下呢
啥?我好像落伍了。
数据量大好吖
现在nlp真不是穷人玩的啊,除非有大老板赞助~~
不太懂啊,文本怎么downsample,下降embedding的维度么?
这才是“千言"数据集,下一个版本不会是“万语”吧~~
downsample他的意思应该是把数据剔除一下,减少数量。我觉得的确应该这么做一下。
啥时候开始限制的
AI Studio有公告,大概半个月前吧
天池大家用的咋样
训练一半,保存中间结果下次是能接着训练,还是到时候还得重新训练啊?
跑脚本任务呗。说实话百度平台上也就跑些50小时内能出来的模型,再多了的还是得自己买显卡搞。
你第一个模型就300小时,调整成本也太大了吧。除非你能保证第一个模型就是最优的
数据量太大了。而且也没改善多少。
先down sample一下呢
啥?我好像落伍了。
数据量大好吖
现在nlp真不是穷人玩的啊,除非有大老板赞助~~
不太懂啊,文本怎么downsample,下降embedding的维度么?
这才是“千言"数据集,下一个版本不会是“万语”吧~~
downsample他的意思应该是把数据剔除一下,减少数量。我觉得的确应该这么做一下。
啥时候开始限制的
AI Studio有公告,大概半个月前吧
天池大家用的咋样
训练一半,保存中间结果下次是能接着训练,还是到时候还得重新训练啊?