首页 Paddle Inference 帖子详情
JetsonTX2 paddle-trt无法工作
收藏
快速回复
Paddle Inference 问答推理 1357 1
JetsonTX2 paddle-trt无法工作
收藏
快速回复
Paddle Inference 问答推理 1357 1

我使用官方提供的Je t s o nTX2 Paddle-inference(c++)库进行测试,测试了Je tPack4.3及Je tPack4.4的版本,

在进行推理时,如果不使用cpu,那么推理可正确输出结果(使用yolov3及ppyolo预训练模型),如果启用

GPU或同时启用tensorrt,则无法正确输出结果,只启用GPU时,输出错误结果,启用tensorrt时,输出为0。

同时我自行编译了Je tPack4.4版本的paddlepaddle,测试结果与官方提供的库结果相同。

请问是否有人能够在Je t s o nTX2上正常使用paddle-inference with tensorrt?还是在使用中对模型或其他方面

有特殊要求?

0
收藏
回复
全部评论(1)
时间顺序
n
nicebdhoho
#2 回复于2021-05

现在问题解决了吗?目前jetson nano又进行了一些更新,可以再尝试一下。

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户