首页 Paddle Inference 帖子详情
jit保存静态模型后,批量预测报错
收藏
快速回复
Paddle Inference 问答推理部署 139 0
jit保存静态模型后,批量预测报错
收藏
快速回复
Paddle Inference 问答推理部署 139 0

在搭建模型时,forward方法中有根据x.shape得到batch_size,在保存静态模型时,shape设置为[None, 3, 224, 224],如下图所示

在用静态模型预测时,得到的batch_size 为-1,导致程序出错,如下图所示,求大神指教如何修改

 

0
收藏
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户