JetsonTX2 paddle-trt无法工作
收藏
我使用官方提供的Je t s o nTX2 Paddle-inference(c++)库进行测试,测试了Je tPack4.3及Je tPack4.4的版本,
在进行推理时,如果不使用cpu,那么推理可正确输出结果(使用yolov3及ppyolo预训练模型),如果启用
GPU或同时启用tensorrt,则无法正确输出结果,只启用GPU时,输出错误结果,启用tensorrt时,输出为0。
同时我自行编译了Je tPack4.4版本的paddlepaddle,测试结果与官方提供的库结果相同。
请问是否有人能够在Je t s o nTX2上正常使用paddle-inference with tensorrt?还是在使用中对模型或其他方面
有特殊要求?
0
收藏
请登录后评论
现在问题解决了吗?目前jetson nano又进行了一些更新,可以再尝试一下。