模型预测生成结果时,会随机的导致内存溢出,或运行自动重启。这个问题一直困扰,后来在论坛讨论得知这可能是由docker的shared memory限制为64M的问题导致的,这个情况现在有解了么?还是大家都是在靠优化模型和算法克服?这个docker导致的限制能由用户在终端进行修改么?
收藏
点赞
0
个赞
请登录后评论
TOP
切换版块
有时还能跑,规律属于玄学。
那么程序一开始就跑不起来吧
是我代码效率的问题。
其实是我预测那部分没用逐batch读取的loader,而是一起读到内存里,才导致溢出的。
只要是并行读取数据那里占内存吧
good
我改了自己的预测代码,绕过去了。也许哪天AI Studio就把整个问题解决了。听说26号更新新版,上传限制从30m改为150m,还有其他一些升级。
还是没搞成。
共享内存可以修改么
内存限制解决了么
谢谢提点,我试试。
docker导致的终端也可以修改