Slim生成的模型不能被score.py读取?
收藏
快速回复
Slim生成的模型不能被score.py读取?
收藏
快速回复

用paddleslim生产的int8模型文件有2个二进制文件: model, weights 

但是score.py读取infer model是这样的:[infer_program, feeded_var_names, target_var] = fluid.io.load_inference_model(dirname=model_dir, executor=exe)

也就是它要求模型的文件名是 __model__, 参数文件不能放在一个文件里,这2点int8模型都不满足。

是我理解有问题还是score文件需要改下以支持paddleslim的压缩模型啊?或者哪里可以配置int8模型文件的生成方式?

0
收藏
回复
全部评论(5)
时间顺序
w
wangwei8638
#2 回复于2019-08

同问

0
回复
d
davidiwu
#3 回复于2019-08

这个问题我琢磨下来结果是这样的:

  • 经过slim生成的模型中,int8模型好像现在还不能paddle读取,倒是float模型可以读取
  • 提交float模型也不能被score.py读取,原因还是上面说的文件名和生成方式和score要求的不一致
  • 在score没有改之前,看来不能用Compressor来压缩模型了,需要用它的底层来实现自己定义模型文件的生成方式
  • 另外自己模型的map结果0.20不到,在经过slim后又降低了0.02。在模型自己的精度不高之前,用slim来压缩模型感觉没什么意义啊
0
回复
xianlu199
#4 回复于2019-09

同问

0
回复
xianlu199
#5 回复于2019-09

fluid.io.load_inference_model(dirname=path, executor=exe,model_filename="model",params_filename="weights")

这样就能加载了

0
回复
l
luckyToMe2
#6 回复于2020-01

看看

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户