首页 Paddle Inference 帖子详情
jetson中PaddleInfer 加载模型时CPU瞬间载满然后报错
收藏
快速回复
Paddle Inference 问答部署Linux 233 1
jetson中PaddleInfer 加载模型时CPU瞬间载满然后报错
收藏
快速回复
Paddle Inference 问答部署Linux 233 1

在jetson xavier NX盒子中部署PaddleInfer ,程序运行到 CreatePredictor(config) 时CPU占用率瞬间达到98%左右,然后报错退出,报错内容如下:

         

CPU内存的占用率如下:

     

0
收藏
回复
全部评论(1)
时间顺序
c
chenlong
#2 回复于2023-06

我的jetson中有两个库paddleInfer库A和B,A中的 .so 文件被我配置为全局变量了,我在编译代码时用cmake其中指定paddleInfer为B,但是在运行的时候可能自动选择了A,所以导致报错

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户