detection中eval和infer速度问题
收藏
paddledetecion中,eval会显示inference time
而实际infer时,推理速度明显比inference time慢是为什么
0
收藏
请登录后评论
不知道你说的实际推理是在什么场景下。
能不能是训练过程中,eval的时候,数据是批量处理的,平均下来,时间比较短。
eval的时候batch size可能大于1,infer都是batch size=1,而且有启动等耗时,eval评估图片数量多,启动耗时基本可忽略,这样肯定eval会快一些。 如果想要评测预测速度,还是使用deploy/python/infer开启enable_benchmark模式来测比较准确
原来如此,期待套件都支持轻型部署
实际推理的时候,说的是真实场景吗?我理解inference time可以被视为实验场景,两个还是会有区别的
还有就是前面说的batchsize问题,eval的时候是可以传入多张的,infer只能一张张预测
可以把eval的batchsize设置为1比较看看
eval和infer的batch都设置为1.
是paddledetection里tools文件夹下的两个文件,infer比eval慢
原来如此
感觉都设置为1是不是误差会大点?不过我觉得这个问题可能要问问开发人员,然后我想到的另一个办法是查下源代码,二者的推理时间分别是什么时候开始算的