首页 Paddle Inference 帖子详情
save_inference_model疑问
收藏
快速回复
Paddle Inference 问答部署推理 2418 6
save_inference_model疑问
收藏
快速回复
Paddle Inference 问答部署推理 2418 6

使用fluid.Trainer进行训练,训练完成后,只能调用fluid.Trainer.save_params()进行保存,而没函数与fluid.io.save_inference_model对应。想请教下,该如何操作,才能生成__model__文件,供C++接口使用?

0
收藏
回复
全部评论(6)
时间顺序
听寒心雨
#2 回复于2018-09

尝试使用fluid.io.load_params和fluid.io.save_inference_model配合,但是没有办法获取到target_vrgs,所以只能通过修改代码来搞了。希望fluid.Trainer能出一个save_inference_model的接口,方便C++接口的调用

0
回复
l
liyunbd2010
#3 回复于2018-09

我也有同样的疑问,也知道有这接口fluid.io.save_inference_model,目前研究中。。。

0
回复
听寒心雨
#4 回复于2018-09
我也有同样的疑问,也知道有这接口fluid.io.save_inference_model,目前研究中。。。

我不准备使用fluid.Trainer来做了,直接用fluid.Executor来搞。就是要改代码,挺烦人的

0
回复
夜雨飘零1
#5 回复于2018-09
我不准备使用fluid.Trainer来做了,直接用fluid.Executor来搞。就是要改代码,挺烦人的

fluid.Trainer是高度封装的,最好使用fluid.Executor,这个跟灵活。

0
回复
Qadle
#6 回复于2018-09

设置Inferencer加载trainer保存的参数后可以这样试试,train的流程毕竟不是infer的流程

with predicter._prog_and_scope_guard():
    fluid.io.save_inference_model('Outputs_model',feed_order,[predicter.predict_var],fluid.Executor(place))

 

0
回复
大菜鸡2000
#7 回复于2023-06

请问对于model = UNIMOLMHeadModel.from_pretrained(checkpoint_dir)这种已经加载好的模型 没有executor,怎么使用save_inference_model

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户