首页 Paddle Inference 帖子详情
如何在昆仑芯片上部署推理的benchmark测试?
收藏
快速回复
Paddle Inference 问答推理部署 435 5
如何在昆仑芯片上部署推理的benchmark测试?
收藏
快速回复
Paddle Inference 问答推理部署 435 5

如何在昆仑芯片上部署推理的benchmark测试?

实验室有一张昆仑R200的板卡,想基于ONNX模型进行一些基准测试,和A10对比下性能。

NV可以这样直接进行测试:

trtexec --onnx=/workspace/yolov3-608.onnx --shapes=000_net:120x3x608x60 --fp16 --iterations=20 --duration=20

请问通过paddlepaddle使用同样导出的onnx模型,如何快速实现测试呢。

0
收藏
回复
全部评论(5)
时间顺序
天空城外人
#2 回复于2022-11

0
回复
天空城外人
#3 回复于2022-12

ding

0
回复
天空城外人
#4 回复于2022-12

没人吗,类似NV的:

trtexec --onnx=xxx.onnx --shapes=xxx:xxx

0
回复
天空城外人
#5 回复于2023-01

0
回复
吸氧羊
#6 回复于2023-07

老哥,请问你最后解决了么,想和你交流一下谢谢,用base64解码:6L+Z5piv5oiR55qEUVE6MzE5Mzk3NjIxMQ==

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户