首页 Paddle框架 帖子详情
怎样自定义单机多卡训练的卡数量? 已解决
收藏
快速回复
Paddle框架 问答模型训练深度学习 590 1
怎样自定义单机多卡训练的卡数量? 已解决
收藏
快速回复
Paddle框架 问答模型训练深度学习 590 1

怎样自定义单机多卡训练的卡数量?

旧鸱c_
已解决
2# 回复于2021-08
如果直接使用飞桨模型套件(paddleclas,paddleseg等)或高层API写的代码,可以直接用这条命令指定显卡启动程序,文档源代码不用改(文档内不要用set_device指定卡): python3 -m paddle.distributed.launch --gpus="1, 3" train.py 使用基础API的场景下,在程序中修改三处: 第1处改动,import库import paddle.distributed as dist 第2处改动,初始化并行环境dist.init_parallel_env() 第3处改动,对模型增加paddle.DataParallel封装 net = paddle.DataParallel(paddle.vision.models.LeNet()) 修改完毕就可以使用 python3 -m paddle.distributed.launch --gpus="1, 3" xxx 来启动了。可参考AIstudio项目示例
展开
0
收藏
回复
全部评论(1)
时间顺序
旧鸱c_
#2 回复于2021-08

如果直接使用飞桨模型套件(paddleclas,paddleseg等)或高层API写的代码,可以直接用这条命令指定显卡启动程序,文档源代码不用改(文档内不要用set_device指定卡): python3 -m paddle.distributed.launch --gpus="1, 3" train.py 使用基础API的场景下,在程序中修改三处:

第1处改动,import库import paddle.distributed as dist
第2处改动,初始化并行环境dist.init_parallel_env()
第3处改动,对模型增加paddle.DataParallel封装 net = paddle.DataParallel(paddle.vision.models.LeNet()) 修改完毕就可以使用 python3 -m paddle.distributed.launch --gpus="1, 3" xxx 来启动了。可参考AIstudio项目示例

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户