首页 Paddle框架 帖子详情
pp-picodet在rtx3060上使用paddledet中infer.py接口如何提高预测速度?
收藏
快速回复
Paddle框架 问答模型训练 1183 2
pp-picodet在rtx3060上使用paddledet中infer.py接口如何提高预测速度?
收藏
快速回复
Paddle框架 问答模型训练 1183 2

paddle版本:2.2.0 gpu

CUDA版本:11.2

GPU:移动rtx3060

CPU:ryzen5800H

模型:picodet_s_320_pedestrian以及pedestrian_yolov3_darknet(输入尺寸320x320)

使用paddledetection中deploy/python/infer.py的picodet和yolov3预测接口,在GPU上速度后都不理想,35帧,GPU占用率在30%,还远不如在readme里面提到的“高通骁龙865(4*A77 + 4*A55)”帧率能达到120帧(虽然用了量化等等的手段)。而在我的电脑上也尝试了一些可能的加速手段:运行模式改为trt32也即使用tensorrtRT库,速度基本不变;运行模式改为trt16,程序一直卡在模型加载阶段无法运行。我猜测可能picodet的网络可能没有充分利用到GPU的资源,可换成yolov3darknet模型速度也只有20帧。请问有什么加速的方法吗,我本来以为这样的电脑硬件配置不至于这么慢的。

 

0
收藏
回复
全部评论(2)
时间顺序
三岁
#2 回复于2022-02

看一下你的设置里面是不是对GPU进行了设置

0
回复
S
SIKQU
#3 回复于2022-04
三岁 #2
看一下你的设置里面是不是对GPU进行了设置

你好,我也碰到了相同的问题,请问有什么需要设置的吗?RTX1060只能得到20FPS的预测速度

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户