2.0api自适应启用gpu环境么?
收藏
测试模型时忘了在gpu环境切回place设定,但从运行速度上看,仍然是用了GPU资源的~~
0
收藏
请登录后评论
PLACE = paddle.CPUPlace() # 在cpu上训练
# PLACE = paddle.CUDAPlace(0) # 在gpu上训练
这样的设定在ai studio上跑模型,仍然会启用gpu
在DataLoader设置了吗
好像这么设置也可以 test_loader = paddle.io.DataLoader(test_dataset, places=paddle.CPUPlace(), batch_size=64)
PLACE = paddle.CPUPlace() 直接这样我认为是不行的
paddle.set_device("cpu")
应该是这个吧
这个也是
就是设给这个api用的,我用了多个DataLoader
动态图例程就是设了下DataLoader
这个paddle.set_device()才是正统吧
我觉得这个是比较正规得
其实只在DataLoader中设置也是可以得 毕竟训练得时候再用gpu 也是没啥问题得 或者是预测
2.0里不用再手动加那个动态图资源的with了,所以现在运行资源的指定是什么机制呢?
用意念,有gpu绝不用cpu
2.0本身就是动态的 如果想用静态 需要加一条命令
再就是 gpu cpu 说实话 这个我也没有搞明白.....