使用python这样的高级脚本语言也会导致内存泄
189******30 发布于2020-03 浏览:1102 回复:9
0
收藏

今天我已经把batch_size设成1了,还是报这个错。有没有同学跨过这道坎啊?请指教。
目前正在用修电脑的方法拆程序-----“只保留cpu,内存和显卡,看能不能点亮机器”

收藏
点赞
0
个赞
共9条回复 最后由西南交大开源回复于2020-03
#10西南交大开源回复于2020-03
#6 189******30回复
python这种高级脚本语言应该不用自己管理内存呀。把model作为参数传递需要考虑深浅拷贝占用内存的问题么?
展开

是不需要  但是读入的数据量太大,你就得考虑了

他都读不进来

0
#9鹿鼎记肯定回复于2020-03
#8 189******30回复
非常感谢。这个是训练脚本运行时,实时的查看的吧。我试试。

如果gpu没问题的话我猜测可能是共享内存shm限制了你的训练,docker提供的共享内存只有64M,具体原理我不太明白(捂脸)

0
#8189******30回复于2020-03
#7 鹿鼎记肯定回复
你试着运行时在终端输入“nvidia-smi”检查一下gpu运行情况

非常感谢。这个是训练脚本运行时,实时的查看的吧。我试试。

0
#7鹿鼎记肯定回复于2020-03

你试着运行时在终端输入“nvidia-smi”检查一下gpu运行情况

0
#6189******30回复于2020-03
#4 西南交大开源回复
python32位之前遇到过memory error  

python这种高级脚本语言应该不用自己管理内存呀。把model作为参数传递需要考虑深浅拷贝占用内存的问题么?

0
#5189******30回复于2020-03
#2 BadDay_回复
是不是模型太大了,你跑什么模型

跑的只是分类模型,而且batch_size设成不同的值,随机能跑或不能跑。设的小能跑的概率就大。

0
#4西南交大开源回复于2020-03

python32位之前遇到过memory error  

0
#3189******30回复于2020-03

只是图像分类。模型保存不到100M

0
#2BadDay_回复于2020-03

是不是模型太大了,你跑什么模型

0
TOP
切换版块