首页 Paddle Serving 帖子详情
Paddle Serving 跨语言RPC+GPU运行环境 出错,请问如何解决? 已解决
收藏
快速回复
Paddle Serving 问答部署服务化Serving 2260 3
Paddle Serving 跨语言RPC+GPU运行环境 出错,请问如何解决? 已解决
收藏
快速回复
Paddle Serving 问答部署服务化Serving 2260 3

要实现的目标:

1、将inference_model转换为Serving模型

2、在nvidia-docker环境下将模型服务化,要求模型运行在GPU上,模型服务提供跨语言RPC接口

3、使用java调用PaddleServing的RPC

 

操作步骤:

1、启动paddlepaddle/serving容器环境

nvidia-docker run -itd --net=host -v /opt:/opt registry.baidubce.com/paddlepaddle/serving:0.6.0-cuda10.2-cudnn8-devel bash

进入容器内

docker exec -it xxxxx bash

2、容器内安装PaddleServingx相关包

pip3 install -i https://mirror.baidu.com/pypi/simple paddle-serving-server-gpu==0.6.0.post102 paddle-serving-client==0.6.0 paddle-serving-app==0.6.0

pip3 install -i https://mirror.baidu.com/pypi/simple paddlepaddle-gpu==2.1.0

3、将inference模型转serving模型

python3 -m paddle_serving_client.convert --dirname inference_model --model_filename __model__ --params_filename __params__​

4、运行paddle serving,加载模型,要求paddle serving使用GPU,并且支持跨语言RPC

python3 -m paddle_serving_server.serve --model serving_server --use_multilang --gpu_ids 1

 

结果:

java调用成功,但是paddle_serving并没有使用GPU

w
wanghyzyyt
已解决
3# 回复于2021-07
已提交 PaddlePaddle/Serving (github.com)· Issue #1295
0
收藏
回复
全部评论(3)
时间顺序
w
wanghyzyyt
#2 回复于2021-07

后续测试1:

去掉跨语言模式运行paddle_serving

python3 -m paddle_serving_server.serve --model serving_server  --gpu_ids 1

然后使用python程序调用server端,发现工作正常,server端使用了GPU。

 

 

 

0
回复
w
wanghyzyyt
#3 回复于2021-07

已提交 PaddlePaddle/Serving (github.com)· Issue #1295

0
回复
W
Wranky
#4 回复于2021-07

https://github.com/PaddlePaddle/Serving/issues/1295

提供其他用户参考后续研发反馈

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户