首页 PaddleHub 帖子详情
hubserving,能部署自己训练的模型吗?
收藏
快速回复
PaddleHub 问答预训练模型一键预测 1633 10
hubserving,能部署自己训练的模型吗?
收藏
快速回复
PaddleHub 问答预训练模型一键预测 1633 10

想用paddlehub部署自己训练的模型,找不到这方面的例子。

有的地方说,hubserving只能部署paddlehub内置的可以直接使用的模型?

我有一个基于enier自己finetule的模型,是否可以用hubserving部署呢?该如何提供接口?

1
收藏
回复
全部评论(10)
时间顺序
f
fisher030712
#2 回复于2020-08

刚才搜了一下,又发现一个paddle serving,正在研究中。

0
回复
w
wangwei8638
#3 回复于2020-08

可以部署

0
回复
f
fisher030712
#4 回复于2020-08

有没有具体的例子呢?我现在的困惑是,不知道该如何确定模型的输入输出参数,参数名称和格式是什么样的?

 

 

0
回复
f
fisher030712
#5 回复于2020-08

而且,hubserving的说明中有,说只支持内置可以直接部署的模型,也许那是以前写的了吧。

0
回复
吴文博smile
#6 回复于2020-08
而且,hubserving的说明中有,说只支持内置可以直接部署的模型,也许那是以前写的了吧。

可以部署自己训练的模型,只要使用部署模型的规范来提供一个预测用的serving predict借口就行 如果是finetune后的模型应该可以直接部署,您看的是哪里的文档呢,如果过时了我们去更新下

0
回复
吴文博smile
#7 回复于2020-08

https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.8/docs/tutorial/finetuned_model_to_module.md#step-3_5-%E6%94%AF%E6%8C%81serving%E8%B0%83%E7%94%A8

您可以看下这个文档 《Fine-tune保存的模型如何转化为一个PaddleHub Module》

0
回复
f
fisher030712
#8 回复于2020-08

谢谢!

在下面这篇文档里面,有关于不支持自定义模型的说明。

https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.8/docs/tutorial/serving.md

 

支持模型
目前PaddleHub Serving支持对PaddleHub所有可直接预测的模型进行服务部署,包括lac、senta_bilstm等NLP类模型,以及yolov3_darknet53_coco2017、vgg16_imagenet等CV类模型,更多模型请参见PaddleHub支持模型列表。未来还将支持开发者使用PaddleHub Fine-tune API得到的模型用于快捷服务部署。

0
回复
lianzhang132
#9 回复于2020-08

肯定是可以的 

0
回复
f
fisher030712
#10 回复于2020-08

好使了,很简单。

0
回复
P
Python_leaner
#11 回复于2021-05

有无教程

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户