docker cpu版 文字识别预测特别慢
收藏
我是下载的官方paddlepaddle docker,然后安装了paddlehub,下载使用chinese_ocr_db_crnn_server模型识别图片,一张1920×1080的图要40多秒,这正常吗?
还有一个问题,用python写加载模型预测的时候,_init_咋写,enable_mkldnn怎么开?
新手刚体验,请各位指点
0
收藏
请登录后评论
可以采用以下办法:
1.使用mobile小模型
2.采用高配置显卡
3.图像大小弄小点
4.关于模型预测可以参考 https://www.paddlepaddle.org.cn/paddle/paddleinference
5.开启enable_mkldnn,开启 MKLDNN 加速选项,一般是使用 CPU 进行预测的时候,如果机器支持 MKLDNN 可以开启。
就一句话
6.init写法因人而异,最好给出具体的情况。
1. 时间正常,因为你用的是chinese_ocr_db_crnn_server,而不是chinese_ocr_db_crnn_mobile,而且图片那么大;
2. Python加载预测,是指训练好模型之后,拿来用吗?给你个例子,我前一阵子刚好做过: