跑 tensorflow 无法使用 gpu 问题
收藏
快速回复
AI Studio平台使用 问答Notebook项目 6895 74
跑 tensorflow 无法使用 gpu 问题
收藏
快速回复
AI Studio平台使用 问答Notebook项目 6895 74

这里提供的服务器资源,看着确实有 GPU Tesla V100-SXM2-32GB,装了 tensorflow-gpu == 1.15.3,但实际跑起来并没有使用 gpu,提示缺少多个 .so 文件,不知怎么回事?谢谢!

0
收藏
回复
全部评论(74)
时间顺序
ChunkitLau
#42 回复于2020-06
旧日歌 #23
你这是封杀后的数据吧 ^_^

真实了

0
回复
aaaaaa
#43 回复于2020-06
百度也一样吧,还能给独占不成

不是独占一块吗

0
回复
旧日歌
#44 回复于2020-06
aaaaaa #43
不是独占一块吗

应该不是,你测试下就知道,V100的算力没那么弱,应该是根据使用情况,会向消耗大的倾斜。不然会造成大量资源浪费

0
回复
aaaaaa
#45 回复于2020-06
旧日歌 #44
应该不是,你测试下就知道,V100的算力没那么弱,应该是根据使用情况,会向消耗大的倾斜。不然会造成大量资源浪费

我之前测试paddledetection的fasterrcnn_fpn 基于res50好像可以到20-30帧,感觉挺快了

0
回复
夜夜夜
#46 回复于2020-07

感谢分享,好东西

0
回复
AIStudio810261
#47 回复于2020-07
百度也一样吧,还能给独占不成

还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的. 

0
回复
thinc
#48 回复于2020-07
还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的. 

财力雄厚

0
回复
ChunkitLau
#49 回复于2020-07
还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的. 

真的假的?

0
回复
ChunkitLau
#50 回复于2020-07
还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的. 

不过这个V100的使用体验确实是好

0
回复
AIStudio810258
#51 回复于2020-07
thinc #48
财力雄厚

我也原来想象他是虚拟的,现在做实了,是真实主机。

 

0
回复
thinc
#52 回复于2020-07
不过这个V100的使用体验确实是好

32G显存香爆了

0
回复
w
wangwei8638
#53 回复于2020-07
不过这个V100的使用体验确实是好

性能杠杠的

0
回复
旧日歌
#54 回复于2020-07
我也原来想象他是虚拟的,现在做实了,是真实主机。  

如何坐实的?

0
回复
旧日歌
#55 回复于2020-07

我经常遇到过,自己本地跑8G显存能跑满,而且很稳。

然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。

所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?

0
回复
AIStudio810261
#56 回复于2020-07
旧日歌 #55
我经常遇到过,自己本地跑8G显存能跑满,而且很稳。 然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。 所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?
展开

你想多了. 其实我也想这么做, 至今尚未实现.

正逼着RD早点给虚拟GPU方案. 

0
回复
AIStudio810258
#57 回复于2020-07
旧日歌 #55
我经常遇到过,自己本地跑8G显存能跑满,而且很稳。 然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。 所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?
展开

预言要自我实现了。

0
回复
旧日歌
#58 回复于2020-07
预言要自我实现了。

呵呵

0
回复
旧日歌
#59 回复于2020-07
你想多了. 其实我也想这么做, 至今尚未实现. 正逼着RD早点给虚拟GPU方案. 

既然官方都辟谣了,那是我想多了。

不过百度在AI方面真是下了血本,期待未来靠着AI打一场翻身仗 

0
回复
thinc
#60 回复于2020-07
旧日歌 #54
如何坐实的?

管理员都出来说话了...

0
回复
thinc
#61 回复于2020-07
旧日歌 #55
我经常遇到过,自己本地跑8G显存能跑满,而且很稳。 然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。 所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?
展开

可以跑脚本任务,p40合理使用也能恰到好处

0
回复
在@后输入用户全名并按空格结束,可艾特全站任一用户