首页 Paddle Inference 帖子详情
采用模型预测时,利用tensorRT加速,模型加载时间过长
收藏
快速回复
Paddle Inference 问答服务器推理部署 564 1
采用模型预测时,利用tensorRT加速,模型加载时间过长
收藏
快速回复
Paddle Inference 问答服务器推理部署 564 1

在linux服务器上部署推理测速:CUDA_VISIBLE_DEVICES=1 python deploy/python/infer.py --model_dir=output_inference/ppyoloe_plus_crn_s_80e_coco --image_dir=/home/zhangyanguo/paddlepaddle/PaddleDetection/output/datatest --run_mode=trt_fp16 --device=gpu --run_benchmark=True

进行推理时候,加载模型需要很长时间,loadmodel这部操作应该非常耗时,加载模型大概需要2分钟,而且感觉推理速度没有输出的10ms,感觉更长时间,是哪里出问题了吗?

再windows台式机上,采用c++部署,loadmodel加载也非常耗时,下面是耗时部分,大概加载模型需要十几分钟,麻烦您帮我解答我的疑惑,万分感谢

 

 

0
收藏
回复
全部评论(1)
时间顺序
123zhaoqidong
#2 回复于2024-05

同问:I0513 15:41:41.531711 31604 tensorrt_subgraph_pass.cc:846] Prepare TRT engine (Optimize model structure, Select OP kernel etc). This process may cost a lot of time.    花费时间太长了,如何解决?

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户