为了向后的兼容,代码里尽量不用fluid下的api么?
现在环境的cuda是不是还不支持2.0的gpu版本
是的,我在alpha中无法运行
https://aistudio.baidu.com/aistudio/projectdetail/505725
有的cuda是新版的,随机重启一下就可以用了
都有的比较好,还能一些代码还能兼容
。。。这样的啊。。。
只知道显存混用
本来还不熟悉的我 更加雪上加霜了
新的api方便多了,只是为了兼容一些老代码的考虑
都玩2.0了~~
这个在线装2.0速度怎么样。原来我装的时候有时比较慢,我就给下到本地了
我觉得官方正是这么考虑的,毕竟有些生产环境部署了老代码
其实可以少走一点弯路了~~
okok
火上浇油~~
用百度源,挺快的
是的
我试了,现在在线安装速度比原来还快了。看来官方也是鼓励大家在线安装、节省硬盘
最近经常用conda建环境安装Paddle2.0,也只有60M不到,加上其他的依赖库很快的
快慢和源有关,昨天试了好多次清华的源安装Paddle全都超时,后面换成阿里的成了
用百度的就行,除非像之前百度源自己挂了~~~
嗯,就是镜像的原因。一般的包国内镜像都有
ai studio 百度源有速度优势吧
现在环境的cuda是不是还不支持2.0的gpu版本
是的,我在alpha中无法运行
https://aistudio.baidu.com/aistudio/projectdetail/505725
有的cuda是新版的,随机重启一下就可以用了
都有的比较好,还能一些代码还能兼容
。。。这样的啊。。。
只知道显存混用
本来还不熟悉的我 更加雪上加霜了
新的api方便多了,只是为了兼容一些老代码的考虑
都玩2.0了~~
这个在线装2.0速度怎么样。原来我装的时候有时比较慢,我就给下到本地了
我觉得官方正是这么考虑的,毕竟有些生产环境部署了老代码
其实可以少走一点弯路了~~
okok
火上浇油~~
用百度源,挺快的
是的
我试了,现在在线安装速度比原来还快了。看来官方也是鼓励大家在线安装、节省硬盘
最近经常用conda建环境安装Paddle2.0,也只有60M不到,加上其他的依赖库很快的
快慢和源有关,昨天试了好多次清华的源安装Paddle全都超时,后面换成阿里的成了
用百度的就行,除非像之前百度源自己挂了~~~
嗯,就是镜像的原因。一般的包国内镜像都有
ai studio 百度源有速度优势吧