PaddleHub Serving GPU部署启动报错
收藏
PaddleHub Serving一键服务化部署yolov3_mobilenet_v1_coco2017预训练模型,并使用GPU进行预测,输入命令:hub serving start -m yolov3_mobilenet_v1_coco2017 --use_gpu 后报错,安装的是paddlepaddle-gpu 2.1.2 ,报错如下
0
收藏
请登录后评论
python 语法错误
那你知道paddlehub serving GPU方式启动的正确语法命令吗?
启动命令没有区别,只要装好了gpu版本的paddle,并正确安装设置了cuda、cudnn就自动使用gpu资源了。
可以参考这个大佬的项目:https://aistudio.baidu.com/aistudio/projectdetail/2261611
安装的就是paddlepaddle-gpu版本,cuda,cudnn全都正确安装设置了,通过api调用是能够使用gpu资源的
这样能够通过gpu来调用,就是无法通过gpu启动paddlehub serving来提供服务,启动报错,调用命令前设置CUDA_VISIBLE_DEVICES=0了
不用 --gpu试过么?
那个地址很奇怪 0.0.0.0
paddlehub应该启动后部署在本机ip的8866端口上
这段代码的是不是弃用的,python函数参数默认值有用冒号的么?
不行重装下paddlehub试试,github上clone个最新的
请用pip list |grep paddle 这个命令看下飞桨和hub的版本,至少下面这个版本组合是没问题的:
paddlehub 2.0.4
paddlenlp 2.0.7
paddlepaddle-gpu 2.1.2.post101
tb-paddle 0.3.6
可以先在AIStudio项目里面学习和测试paddlehub,因为AIStudio项目里面是配好的。
那个0.0.0.0地址,我第一启动正常显示我的ip,第二次启动就是0.0.0.0,很奇怪
@aistudio_6 123
@aistudio_2 ok
@aistudio_2 @aistudio_2 @aistudio_2
@aistudio_2 您怎么看
这个地址没有问题的。