AI Studio内核挂掉
收藏
我正在做一个图像分类任务,数据集是Mini-ImageNet,训练集共38400张图片,我把每张图片大小都设置为(3,96,96),下面是训练集批量加载的函数:
train_loader = DataLoader(train_set, batch_size=32)
训练时,执行下面一条语句后,内核就会挂掉:
for i, (X_batch, y_batch) in enumerate(train_loader):
我是用的是每小时0.5算力卡的GPU环境,内存使用不到3GB,显存使用不到2GB,不知道为什么内核会挂掉。换成每小时1算力卡的GPU环境后好了。
0
收藏
请登录后评论
合理设置Batch_size
第二天运行就突然好了,内核不会挂掉了,难道是当时使用算力资源的人数过多导致的?
第二天运行时好了,内核不会挂掉了
1
估计就是使用人多了,我在周末解压数据集速度会变得很慢很慢