首页 Paddle Inference 帖子详情
infer文件,命令行调用,以及改写infer,将模型文件加载至内存 已解决
收藏
快速回复
Paddle Inference 问答推理 357 1
infer文件,命令行调用,以及改写infer,将模型文件加载至内存 已解决
收藏
快速回复
Paddle Inference 问答推理 357 1

在使用深度学习框架进行预测的时候,很多开发者,甚至飞桨官方套件,都是使用parse_args(),这类的CMD命令进行调用的。我个人改写了infer.py文件,将模型文件加载至内存,进行预测。我想请问诸位大佬,你们使用的是什么方式。还有parse_args()有什么好处

老狼Max
已解决
2# 回复于2023-04
个人理解:parse_args()是为了和命令行交互,获取命令行中的参数。这样便于服务化部署,因为很多服务都是通过命令行开启的, 如果是将模型部署到端侧,都是写成函数,使用参数传递相应的值
展开
0
收藏
回复
全部评论(1)
时间顺序
老狼Max
#2 回复于2023-04

个人理解:parse_args()是为了和命令行交互,获取命令行中的参数。这样便于服务化部署,因为很多服务都是通过命令行开启的,

如果是将模型部署到端侧,都是写成函数,使用参数传递相应的值

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户