利用飞桨跑了不少训练,可是初始化那段代码看不懂,什么样才算成功调用GPU了呢?初始化那些参数什么意思啊,求问大家~
截图发不上来,真不知道社区的智能审核是怎么搞得。。。
。。。
看看模型每一轮次的运行时间
运行时间最容易说明一切!
use_cuda = True
place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace()
nvidia-smi看看占用显存了没有
跑波士顿房价回归那样的模型没啥区别。跑CV任务就知道有没有用GPU了。
CV如果不用GPU,一个epoch有时就要用1个小时。用时主要取决于模型参数的数量。
主要就是运行时间太迷,比论文里面1080都耗时,感觉用了假的GPU、、、
嗯嗯,这个是训练时候的超参数,主要就是训练开始时候,显示的那些Device呀CUDA之类的参数,看不懂、、、
是哪篇论文
论文里的东西 有可能是手算出来的
感觉尤其是强化学习那一块 都没法复现
深度强化感觉就是个黑洞
感觉有些论文一些细节都没说。要是大家不能复现效果,论文就没啥价值了。据说一些大会的论文是学生在审。
nvidia-smi查看显存占用即可,但有时候显示最大显存为32G,我傻了...
初始化,你的意思是为什么将权重初始化成均值为0,标准差为0.01的正态随机数吗?
我一个小几届的师弟去年一作还拿了三篇顶会论文
很多论文都是 关键细节不一定是完全的 甚至不是真实的
。。。
看看模型每一轮次的运行时间
运行时间最容易说明一切!
use_cuda = True
place = fluid.CUDAPlace(0) if use_cuda else fluid.CPUPlace()
nvidia-smi看看占用显存了没有
跑波士顿房价回归那样的模型没啥区别。跑CV任务就知道有没有用GPU了。
CV如果不用GPU,一个epoch有时就要用1个小时。用时主要取决于模型参数的数量。
主要就是运行时间太迷,比论文里面1080都耗时,感觉用了假的GPU、、、
嗯嗯,这个是训练时候的超参数,主要就是训练开始时候,显示的那些Device呀CUDA之类的参数,看不懂、、、
是哪篇论文
论文里的东西 有可能是手算出来的
感觉尤其是强化学习那一块 都没法复现
深度强化感觉就是个黑洞
感觉有些论文一些细节都没说。要是大家不能复现效果,论文就没啥价值了。据说一些大会的论文是学生在审。
nvidia-smi查看显存占用即可,但有时候显示最大显存为32G,我傻了...
初始化,你的意思是为什么将权重初始化成均值为0,标准差为0.01的正态随机数吗?
我一个小几届的师弟去年一作还拿了三篇顶会论文
很多论文都是 关键细节不一定是完全的 甚至不是真实的