save_inference_model疑问
收藏
使用fluid.Trainer进行训练,训练完成后,只能调用fluid.Trainer.save_params()进行保存,而没函数与fluid.io.save_inference_model对应。想请教下,该如何操作,才能生成__model__文件,供C++接口使用?
0
收藏
请登录后评论
尝试使用fluid.io.load_params和fluid.io.save_inference_model配合,但是没有办法获取到target_vrgs,所以只能通过修改代码来搞了。希望fluid.Trainer能出一个save_inference_model的接口,方便C++接口的调用
我也有同样的疑问,也知道有这接口fluid.io.save_inference_model,目前研究中。。。
我不准备使用fluid.Trainer来做了,直接用fluid.Executor来搞。就是要改代码,挺烦人的
fluid.Trainer是高度封装的,最好使用fluid.Executor,这个跟灵活。
设置Inferencer加载trainer保存的参数后可以这样试试,train的流程毕竟不是infer的流程
请问对于model = UNIMOLMHeadModel.from_pretrained(checkpoint_dir)这种已经加载好的模型 没有executor,怎么使用save_inference_model