这里提供的服务器资源,看着确实有 GPU Tesla V100-SXM2-32GB,装了 tensorflow-gpu == 1.15.3,但实际跑起来并没有使用 gpu,提示缺少多个 .so 文件,不知怎么回事?谢谢!
真实了
不是独占一块吗
应该不是,你测试下就知道,V100的算力没那么弱,应该是根据使用情况,会向消耗大的倾斜。不然会造成大量资源浪费
我之前测试paddledetection的fasterrcnn_fpn 基于res50好像可以到20-30帧,感觉挺快了
感谢分享,好东西
还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的.
财力雄厚
真的假的?
不过这个V100的使用体验确实是好
我也原来想象他是虚拟的,现在做实了,是真实主机。
32G显存香爆了
性能杠杠的
如何坐实的?
我经常遇到过,自己本地跑8G显存能跑满,而且很稳。
然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。
所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?
你想多了. 其实我也想这么做, 至今尚未实现.
正逼着RD早点给虚拟GPU方案.
预言要自我实现了。
呵呵
既然官方都辟谣了,那是我想多了。
不过百度在AI方面真是下了血本,期待未来靠着AI打一场翻身仗
管理员都出来说话了...
可以跑脚本任务,p40合理使用也能恰到好处
真实了
不是独占一块吗
应该不是,你测试下就知道,V100的算力没那么弱,应该是根据使用情况,会向消耗大的倾斜。不然会造成大量资源浪费
我之前测试paddledetection的fasterrcnn_fpn 基于res50好像可以到20-30帧,感觉挺快了
感谢分享,好东西
还真是独占的. 我想搞成虚拟的, 但RD嫌麻烦. 所以从上线一直就是独占的.
财力雄厚
真的假的?
不过这个V100的使用体验确实是好
我也原来想象他是虚拟的,现在做实了,是真实主机。
32G显存香爆了
性能杠杠的
如何坐实的?
我经常遇到过,自己本地跑8G显存能跑满,而且很稳。
然后在PP上,分到32G显存的时候,开始是8G左右,然后中途经常跑到16G。。。
所以应该是共享向其他需求大的模型倾斜的,不然你占着茅坑不拉shi,不就造成了资源浪费么?
你想多了. 其实我也想这么做, 至今尚未实现.
正逼着RD早点给虚拟GPU方案.
预言要自我实现了。
呵呵
既然官方都辟谣了,那是我想多了。
不过百度在AI方面真是下了血本,期待未来靠着AI打一场翻身仗
管理员都出来说话了...
可以跑脚本任务,p40合理使用也能恰到好处