请问大佬们,怎么查显卡支持的cuda版本?
我在官网查到的是840m的算力是5,查到cuda10要求的最低算力是3点几。但自己装了几次老是报错。
以前总是在ai studio上伸手就来。。。
请问,装cuda对visual studio的版本有要求么?还是最高版本就向前兼容了?
我在网上查都是840m装cuda8和9的,但是paddle2.1要求cuda10以上
带M的是移动端显卡,这个算力不高,而且CUDA支持也有缺陷,大概率可以安装但不能跑深度学习
谢谢GT大佬!
不能跑是指跑起来会报错,还是指速度上不给力?
我用这个老本就是用于下本地的学习,测试,不用来训练。
可能会报错,有些算子好像是不支持(也可能是驱动问题),运行就报错,速度上也挺慢的。
那只能我弥陀佛了~~
不知道啊,攒钱买3090呗。
估计扫雷不卡
我就推理下玩玩,竟然能跑,反正googlenet里的卷积,Linear,drop应该没啥问题,哈哈
挖矿的太猛了啊~~
这个840m竟然显存4G,推理够用了,就是测试训练时,gpu占用总百分之二十几,不知道什么原因
cpu、显存占用都不高,所以应该不是读写造成gpu浪费,只是不知道什么原因,难道与cuda有关?
还是连云端吧
之前换本本的时候纠结了一番要不要GPU,最后想想,那点GPU能干啥……还不如多上点内存
深度学习的时候笔记本真就一个客户端
训练时候没啥用
主要是想演示一些推理时能快点。但gpu只用了分之一,正常应该比这个速度加快4、5倍才是,不知道怎么搞得
有时想部署一些模型,希望本地的演示能快点。我弄的生成模型确实需要大点的显存。模型推理时如果不是框架特意支持,一般操作都是在显存完成的吧,能用gpu的共享内存么?还是只能用物理显存?
我的mx250好像可以哎
可以用共享内存么?
以前总是在ai studio上伸手就来。。。
请问,装cuda对visual studio的版本有要求么?还是最高版本就向前兼容了?
我在网上查都是840m装cuda8和9的,但是paddle2.1要求cuda10以上
带M的是移动端显卡,这个算力不高,而且CUDA支持也有缺陷,大概率可以安装但不能跑深度学习
谢谢GT大佬!
不能跑是指跑起来会报错,还是指速度上不给力?
我用这个老本就是用于下本地的学习,测试,不用来训练。
可能会报错,有些算子好像是不支持(也可能是驱动问题),运行就报错,速度上也挺慢的。
那只能我弥陀佛了~~
不知道啊,攒钱买3090呗。
估计扫雷不卡
我就推理下玩玩,竟然能跑,反正googlenet里的卷积,Linear,drop应该没啥问题,哈哈
挖矿的太猛了啊~~
这个840m竟然显存4G,推理够用了,就是测试训练时,gpu占用总百分之二十几,不知道什么原因
cpu、显存占用都不高,所以应该不是读写造成gpu浪费,只是不知道什么原因,难道与cuda有关?
还是连云端吧
之前换本本的时候纠结了一番要不要GPU,最后想想,那点GPU能干啥……还不如多上点内存
深度学习的时候笔记本真就一个客户端
训练时候没啥用
主要是想演示一些推理时能快点。但gpu只用了分之一,正常应该比这个速度加快4、5倍才是,不知道怎么搞得
有时想部署一些模型,希望本地的演示能快点。我弄的生成模型确实需要大点的显存。模型推理时如果不是框架特意支持,一般操作都是在显存完成的吧,能用gpu的共享内存么?还是只能用物理显存?
我的mx250好像可以哎
可以用共享内存么?