首页 版块 访问AI主站 注册 发帖
操作指南:
技术专区:
AI赛事:
集思广益:
大佬们帮我看看我到底是那道题错了?
属于模型部署?ABC A. 高性能推理B. 在线服务化部署C. 离线服务化部署D. 模型评估 ...
现在有表格离线识别吗?
部署服务器网络限制,需要离线识别,是否有这服务?
【应用方案】智能问答解决孤寡老人部分陪伴问题
,但是可以陪老人做一些简单聊天、信息参考、结合智能家居还可以实现声控家具,方便老人 适用场景:孤寡老人的家里项目范围说明:1.结合智能硬件...
图像分割 一个六百多K的图片用了8s
部署后调用图像分割接口 怎么识别那么慢 用了8s 完全无法在生产上使用
在CMake中编译的时候出现的问题
参考官方C#部署,在编译时候,下面总是出现这段红字,然后编译出来的dll就不能用。
paddlehub serving 预测如何加速
使用hub serving部署了自己在ernie_tiny上finetune的模型,目前使用了多进程预测,但是返回速度还是在0.5s-3s...
深度学习应用,不但要考虑准确性,更要考虑安全
前一段时间,TensorFlow、Caffe、Torch 等深度学习框架被爆出存在大量的安全隐患,主要是因为第三方开源基础库造成...
在线服务报错(服务调用失败)
在线服务下新建沙盒,已有沙盒,已成功部署运行中的API(仅持续运行的API可以正常调用)对应的沙盒,启动后测试均调用失败。曾经已经成功部署...
paddlehub serving 预测如何加速
使用hub serving部署了自己在ernie_tiny上finetune的模型,目前使用了多进程预测,但是返回速度还是在0.5s-3s...
飞桨领航团AI达人创造营20210727笔记
、分割模型2、具体实例:表情机器人-人脸结合熊猫头表情形成表情包创意来源:生活需求表情包来源:Paddlehub聊天...
部署自定义模型,推理时出现问题
请问在编译程序进行推理后,为什么不显示推理结果,请问是什么原因? 模型是通过paddle-detection训练所得,并通过API进行导出,分别得...
部署在jetson nano b01 4G版,开启GPU后,内存会飙升,占到80%
经过反复的测试,最终定位到内存飙升是因为开启了GPU,请问这个现象是正常的吗? 如果是正常的,如何控制内存的增长,因为还有业...
opencl部署paddle训练的识别模型,为什么一直报错?
https://pan.baidu.com/s/1-ic2GInRJnTB2N7UfAklmA 提取码:exjy
paddle上没有的模型可以通过x2paddle转换,然后用paddle部署吗?
我想请问 针对paddle上没有的模型,我是否可以先在自己自定义网络然后训练,得到一个模型文件,然后再用x2paddle进行转换?还是说必...
部署ocr模型识别的时候想要开多个worker遇到了问题
OSError: (External) CUDA error(3), initialization error.[Hint: 'cudaErrorInitializationError'. The API call failed because the CUDA driver and runtime could not be initialized. ] (...
paddleserving的例子里LAC只有分词,如何把rank功能在paddleserving上部署
LAC里的rank model转paddleserving模型使用,模型输出的时候会报错 ValueError: Failed to fetch, maybe the type of [save_infer_model/scale_0] is wrong, please check th...
问问大家一个小白问题,我部署了一个PaddleServing Restful API服务
我想知道这个API文档在哪儿能看到了,模型采用的是ch_ppocr_server_v2.0_xx,文字和检测功能都已经装备,大佬求教!
沙盒部署后api访问报错 沙盒环境请登录后使用
{ "logId": "fa254157-765c-41fe-abb4-3bf301207e0f", "errorCode": 500, "errorMsg": "沙盒环境请登录后使用", "timestamp": 0, "result": {}} https://aistudio.ba...
paddledetection怎么去掉后处理nms
我要做地平线旭日x3上部署picodet,但是它要模型取代nms,这个怎么去掉?
切换版块
智能客服