首页 PaddleCV 帖子详情
detection中eval和infer速度问题
收藏
快速回复
PaddleCV 问答目标检测 1018 9
detection中eval和infer速度问题
收藏
快速回复
PaddleCV 问答目标检测 1018 9

paddledetecion中,eval会显示inference time

而实际infer时,推理速度明显比inference time慢是为什么

0
收藏
回复
全部评论(9)
时间顺序
UnseenMe
#2 回复于2021-04

不知道你说的实际推理是在什么场景下。
能不能是训练过程中,eval的时候,数据是批量处理的,平均下来,时间比较短。

0
回复
lara吕雪莹
#3 回复于2021-04

eval的时候batch size可能大于1,infer都是batch size=1,而且有启动等耗时,eval评估图片数量多,启动耗时基本可忽略,这样肯定eval会快一些。 如果想要评测预测速度,还是使用deploy/python/infer开启enable_benchmark模式来测比较准确

0
回复
AIStudio810258
#4 回复于2021-05

原来如此,期待套件都支持轻型部署

0
回复
AIStudio810260
#5 回复于2021-05

实际推理的时候,说的是真实场景吗?我理解inference time可以被视为实验场景,两个还是会有区别的

0
回复
AIStudio810260
#6 回复于2021-05

还有就是前面说的batchsize问题,eval的时候是可以传入多张的,infer只能一张张预测

0
回复
AIStudio810260
#7 回复于2021-05

可以把eval的batchsize设置为1比较看看

0
回复
IsaacLeo
#8 回复于2021-05

eval和infer的batch都设置为1.

是paddledetection里tools文件夹下的两个文件,infer比eval慢

0
回复
AIStudio810259
#9 回复于2021-05

原来如此

0
回复
AIStudio810260
#10 回复于2021-05
eval和infer的batch都设置为1. 是paddledetection里tools文件夹下的两个文件,infer比eval慢

感觉都设置为1是不是误差会大点?不过我觉得这个问题可能要问问开发人员,然后我想到的另一个办法是查下源代码,二者的推理时间分别是什么时候开始算的

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户