PaddleDetection
基线的精度:83.5 VS 自己训练 73.84
用同样的配置文件,数据集是pascalvoc(Aistudio数据集上找的,因为程序里下不动)
自己训练的结果:
83.5 VS 73.84
不会数据集的问题吧,再换个数据集试试就知道了
基线是8卡的,是不是这个原因?
套件也是用的Paddle框架,开源的。
可以到pdd的代码里看看是不是有些处理、初始化或超参什么的还是没对齐
还是换数据集试试吧
用源数据试试吧
应该基线配置的问题 默认配置为8卡
如果了用分布式训练,用 paddle.distributed.launch 执行train脚本
顶
多卡差别大吗?差在那里呢
是不是差在速度和学习率??,
最主要就是速度 时间除以8 但是会损失一些精度
想起来有的文档里有详细介绍训练方式,比如到多少轮学习率降到多少,到多少轮学习率是多少……
是吖,既然多卡还会丢失精度,单卡训练出来的都差这么多,多卡训练出来的不得差更多了
好像去掉一个参数会好一些 但是时间就加长了
多卡跟单卡的lr设置不一样吧,单卡除以8呀我的婊贝儿
哈哈
这我知道
已经出了 哈哈
不过脚本不支持2.0rc,就很难受
不会数据集的问题吧,再换个数据集试试就知道了
基线是8卡的,是不是这个原因?
套件也是用的Paddle框架,开源的。
可以到pdd的代码里看看是不是有些处理、初始化或超参什么的还是没对齐
还是换数据集试试吧
用源数据试试吧
应该基线配置的问题 默认配置为8卡
如果了用分布式训练,用 paddle.distributed.launch 执行train脚本
顶
多卡差别大吗?差在那里呢
是不是差在速度和学习率??,
最主要就是速度 时间除以8 但是会损失一些精度
想起来有的文档里有详细介绍训练方式,比如到多少轮学习率降到多少,到多少轮学习率是多少……
是吖,既然多卡还会丢失精度,单卡训练出来的都差这么多,多卡训练出来的不得差更多了
好像去掉一个参数会好一些 但是时间就加长了
多卡跟单卡的lr设置不一样吧,单卡除以8呀我的婊贝儿
哈哈
这我知道
已经出了 哈哈
不过脚本不支持2.0rc,就很难受